Норвежец подал жалобу на ChatGPT из-за ложных обвинений


Недавний инцидент с норвежцем Арве Хьялмаром Хольменом привлек внимание к вопросам точности информации, предоставляемой чат-ботами, такими как ChatGPT от OpenAI. Согласно сообщению, сделанному европейской организацией по защите цифровых прав Noyb, мужчина обратился к юристам после того, как получил шокирующий ответ от чат-бота, когда решил узнать, кто он такой.

Согласно данным ChatGPT, Хольмен, отец троих детей, якобы был приговорен к 21 году тюремного заключения за убийство двоих своих детей и покушение на жизни третьего. Этот ответ оказался для него не только неприятным, но и, как он сам выразился, «сочиненной историей ужасов», не имеющей под собой никаких оснований. Его слова поддержали юристы Noyb, которые провели собственное расследование и не смогли найти подтверждения такой информации в доступных источниках.

После того как Хольмен подал жалобу, OpenAI удалила ложные данные из выданной информации ChatGPT. Однако юристы Noyb указали, что разработчики не вносят корректировки в исходные данные, а лишь блокируют ложные результаты, что порождает опасения о возможности повторной публикации этой информации в будущем.

Хольмен и его адвокаты выражают серьезное беспокойство по поводу того, что фейковые данные могут появиться у других пользователей, если они остались в системе. По словам Хольмена, «Кто‑то может подумать, что нет дыма без огня. Самое страшное — это то, что люди могут поверить в правдивость этой информации». Такая ситуация подчеркивает важность заботы о точности и правдивости информации, генерируемой искусственным интеллектом, который все чаще используется в повседневной жизни.

OpenAI также прокомментировала положение дел, уточнив, что на данный момент они могут лишь блокировать некорректные результаты, но не исправлять исходные данные. Это поставило под сомнение возможность оперативного реагирования на подобные ситуации и вызвало дополнительную озабоченность у пользователей.

Если норвежский регулятор подтвердит факты, связанные с предоставлением чат-ботом неточных данных о физических лицах, OpenAI может столкнуться с серьезными последствиями, включая оборотные штрафы в соответствии с регламентом ЕС по защите данных GDPR. Этот случай стал ярким примером того, как важно контролировать данные, которые обрабатываются и распространяются с помощью технологий, и поднимает вопросы о том, как компании должны справляться с ложной информацией.


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *