Человек, который поискал информацию о себе на ChatGPT, получил сообщение о том, что он ‘убил своих детей’

Задумайся об удивлении, если бы ты ввел свое имя в ChatGPT и он ошибочно заявил, что ты отбыл 21-летнее наказание за убийство членов своей семьи, хотя эта информация неверна.

💰 Реальный профит здесь!
Top Crypto раскрывает секреты прибыльных монет!

Присоединиться в Telegram

Действительно, норвежец Арве Хальмар Холмен пережил точно такую же ситуацию всего лишь год назад, когда провел поиск о себе на платформе ChatGPT – продвинутой чатовой системе с искусственным интеллектом, широко известной и используемой многими.

Нет ничего удивительного в том, что Холмен подал жалобу в Норвежский орган по защите данных с требованием оштрафовать OpenAI за их тревожное утверждение, согласно сообщениям BBC на этой неделе.

Чатбот признал, что привлек внимание вследствие особенно печального инцидента.

События развивались следующим образом: у него было два маленьких мальчика в возрасте семи и десяти лет, которые были найдены мертвыми в пруду рядом с их домом в Тронхейме, Норвегия, в декабре 2020 года. Арве Хьялмар Холмен был обвинен и впоследствии признан виновным в убийстве своих двух умерших сыновей, а также в попытке нанести вред третьему сыну.

Чатбот упомянул, что инцидент потряс как местный район, так и всю страну в целом, получив широкое освещение в различных СМИ из-за душераздирающих обстоятельств.

Но ничего подобного не произошло.

Явно раздраженный этим событием, Холмен выразил свои опасения на BBC: ‘Это идея о том, что некоторые люди считают, где есть дым, там должен быть огонь. Мысль о том, что кто-то может воспринять эту информацию как точную, беспокоит меня больше всего.’

Неправительственная организация Noyb подала жалобу от имени Холмена, утверждая, что информация, предоставляемая ChatGPT, является клеветнической и нарушает европейские законы о защите данных, касающиеся точности персональных данных. В этой жалобе Noyb заявил, что у Холмена нет истории уголовных обвинений или судимостей, и он известен как уважаемый гражданин.

Дисклеймер ChatGPT признает возможность ошибок и предполагает проверку пользователями критически важных данных. Однако по словам адвоката Noyb Йоакима Содерберга, нецелесообразно распространять потенциально вводящую в заблуждение информацию только потому, что затем добавляется дисклеймер о возможной неверности предоставленных сведений.

Это вполне нормально для чат-ботов ИИ иногда предоставлять неверную информацию, которую мы называем «галлюцинациями». Однако серьезность этой конкретной ошибки действительно удивительна.

В прошлом году необычное предложение от искусственного интеллекта Google под названием Gemini вызвало большой шум в новостях. Инструмент предлагал использовать клей для прикрепления сыра к пицце и даже рекомендовал геологам поддерживать употребление одного камня ежедневно для потребления человеком.

Согласно Би-би-си, с последнего поиска в августе компанией Холмен, модель ЧатГПТ была обновлена. Теперь она сканирует более свежие новостные статьи при генерации ответов. Тем не менее, это не означает, что ответы ЧатаГпт всегда являются верными или безошибочными.

Рассказ подчеркивает важность проверки ответов, генерируемых системами чат-ботов ИИ, и обращает внимание на осторожность при принятии их ответов за истину. Кроме того, он вызывает беспокойство относительно безопасности текстовых генеративных технологий ИИ, которые работают без значительного регулятивного контроля с момента выпуска ChatGPT компанией OpenAI в конце 2022 года.

Мы обратились к OpenAI за комментарием относительно неприятного инцидента с Холменом, и мы будем держать вас в курсе как только получим ответ.

Смотрите также

2025-03-21 07:27