Meta усилит меры предосторожности, чтобы ИИ-чатботы не обсуждали самоубийство с детьми. Это вызывает вопрос: какие меры принимались ранее?

Meta усилит меры предосторожности, чтобы ИИ-чатботы не обсуждали самоубийство с детьми. Это вызывает вопрос: какие меры принимались ранее?

Предупреждение о содержании: В этой статье обсуждаются темы, связанные с суицидом. Если вы или кто-то из ваших знакомых испытывает суицидальные мысли, помощь доступна через соответствующие службы поддержки и горячие линии.

Компания Meta, владеющая Facebook, планирует ввести дополнительные функции безопасности для своих AI моделей, после того как утечка документа спровоцировала сенатора США начать расследование в отношении компании.

Внутренний документ Meta, полученный агентством Reuters, под названием "GenAI: Стандарты рисков контента" показал, что ИИ компании могли вести "чувственные" беседы с детьми.

Республиканский сенатор Джош Хоули назвал это "возмутительным" и начал официальное расследование политики Meta в отношении ИИ. Meta, в свою очередь, заявила BBC, что "примеры и заметки в документе были ошибочными и не соответствуют нашей политике, и они были удалены".

Теперь Meta сообщает, что введет новые меры предосторожности для своих ИИ-ботов, включая запрет на обсуждение с подростками тем, таких как суицид, самоповреждения и расстройства пищевого поведения. Однако остается вопрос: что они делали до этого момента? И допустимо ли обсуждение таких тем с взрослыми?

"По мере совершенствования наших систем мы добавляем больше защитных мер как дополнительную предосторожность — включая обучение наших ИИ не взаимодействовать с подростками на эти темы, но направлять их к экспертным ресурсам, а также ограничиваем доступ подростков к определенной группе ИИ-персонажей на данный момент," — заявила представитель Meta Стефани Отвэй изданию TechCrunch.

Упоминание об ИИ-персонажах связано с тем, что Meta позволяет пользователям создавать персонажей на базе своих моделей, которые доступны на таких платформах, как Facebook и Instagram. Не секрет, что некоторые из этих ботов вызывают сомнения. Другой отчет Reuters выявил множество примеров сексуализированных знаменитостей-ботов, включая одного, основанного на 16-летней кинозвезде, а сотрудник Meta создал несколько 'пародийных' аккаунтов ИИ на Тейлор Свифт. Удастся ли Meta сдержать эту волну, покажет время, но Отвэй настаивает на том, что подростки больше не смогут пользоваться такими чат-ботами.

"Хотя дополнительные меры безопасности приветствуются, тщательное тестирование безопасности должно проводиться до вывода продуктов на рынок, а не после того, как случится вред," — сказал Эндрю Бэрроуз, глава благотворительной организации по предотвращению суицида Molly Rose Foundation, BBC.

"Meta должна действовать быстро и решительно, чтобы внедрить более строгие меры безопасности для ИИ-чат-ботов, и [британский регулятор] Ofcom должен быть готов расследовать, если эти обновления не обеспечат безопасность детей."

Эти новости появились вскоре после того, как пара из Калифорнии подала в суд на разработчика ChatGPT, компанию OpenAI, по причине самоубийства их подростка, утверждая, что чат-бот побуждал его к этому.

Оставить коментарий
Комментарий:
Комментарии
  1. user

    Это ужасно, что такие инциденты вообще могли произойти! Хорошо, что Meta сейчас принимает меры, но почему это не было сделано заранее? Нужно больше ответственности от крупных компаний, когда речь идет о безопасности наших детей.

  2. user

    Проблема в том, что технологии развиваются быстрее, чем успевают за ними законы и этические нормы. Надеюсь, что такие ситуации научат компании быть более ответственными и внимательными к своим продуктам.