Отсутствие ответственности
Posted: Wed Jan 29, 2025 10:27 am
Конечно, OpenAI лидирует с точки зрения обширной документации, но компании пока не регулируются для обеспечения прозрачности.
Вдобавок ко всему, мы не знаем, как инструменты ИИ создают ответ. Поскольку генеративный ИИ часто галлюцинирует или выдумывает факты, он может создавать юридические проблемы для бизнеса.
Существует большая путаница относительно того, кто несет ответственность за ошибки генеративного ИИ. В случае Air Canada, она пыталась утверждать, что чат-бот является отдельным юридическим лицом, но не смогла убедить суд.
Если вы не используете план ChatGPT Enterprise, OpenAI отслеживает историю вашего чата для обучения своей модели по умолчанию. Вы можете отказаться от этого, но эта функция зарыта глубоко в ваших настройках.
А теперь представьте себе такую ситуа база данных telegram омана цию: представитель службы поддержки клиентов хочет отправить клиенту повторное электронное письмо, в котором излагаются суть их разговора и излагаются его пожелания.
Они открывают свою личную учетную запись OpenAI, чтобы попросить ChatGPT написать черновик, включая персональные данные (PII), для получения более подробных результатов.
Затем это взаимодействие становится частью модели обучения OpenAI, включая персональные данные клиента.
Многим компаниям еще предстоит установить ограничения на то, как их сотрудники могут (и должны) использовать инструменты ИИ.
Отсутствие ответственности за защиту данных может привести к случаям синтетической кражи персональных данных и утечкам данных клиентов.
Вдобавок ко всему, мы не знаем, как инструменты ИИ создают ответ. Поскольку генеративный ИИ часто галлюцинирует или выдумывает факты, он может создавать юридические проблемы для бизнеса.
Существует большая путаница относительно того, кто несет ответственность за ошибки генеративного ИИ. В случае Air Canada, она пыталась утверждать, что чат-бот является отдельным юридическим лицом, но не смогла убедить суд.
Если вы не используете план ChatGPT Enterprise, OpenAI отслеживает историю вашего чата для обучения своей модели по умолчанию. Вы можете отказаться от этого, но эта функция зарыта глубоко в ваших настройках.
А теперь представьте себе такую ситуа база данных telegram омана цию: представитель службы поддержки клиентов хочет отправить клиенту повторное электронное письмо, в котором излагаются суть их разговора и излагаются его пожелания.
Они открывают свою личную учетную запись OpenAI, чтобы попросить ChatGPT написать черновик, включая персональные данные (PII), для получения более подробных результатов.
Затем это взаимодействие становится частью модели обучения OpenAI, включая персональные данные клиента.
Многим компаниям еще предстоит установить ограничения на то, как их сотрудники могут (и должны) использовать инструменты ИИ.
Отсутствие ответственности за защиту данных может привести к случаям синтетической кражи персональных данных и утечкам данных клиентов.