
12 мая, Минск /Корр. БЕЛТА/. Во Флориде семья жертвы массовой стрельбы подает иск в суд на компанию OpenAI, обвинив ChatGPT в том, что он помог подготовить сценарий нападения. Об этом сообщает NBC News.
Стрельба произошла 17 апреля 2025 года в кампусе Университета штата Флориды (Florida State University, FSU) в городе Таллахасси. 20-летний студент FSU Феникс Икнер открыл огонь, в результате погибли два человека, еще шестеро получили ранения.
В иске утверждается, что платформа ChatGPT компании OpenAI способствовала этой атаке, так как помогла спланировать нападение. В иске в качестве ответчика также указан Феникс Икнер и упоминаются его «обширные беседы» с ChatGPT. В иске говорится, что OpenAI не смогла эффективно обнаружить угрозу в разговорах ChatGPT с Икнером. Указывается, что чат-бот «либо не смог должным образом связать факты, либо изначально не был должным образом разработан для распознавания угрозы».
Федеральный иск против компании OpenAI подала Вандана Джоши, вдова Тиру Чаббы, который был убит во время апрельской стрельбы. На пресс-конференции, посвященной объявлению о подаче иска, один из адвокатов Джоши обвинил ChatGPT в том, что компания ставит «деньги выше жизней обычных американцев».
«Уникальность этой ситуации заключается в том, что мы не позволим американской общественности стать объектом исследований с применением технологий OpenAI и ChatGPT», — заявил юрист Бакари Селлерс.
Согласно жалобе, Икнер, тогда студент Университета штата Флорида, поделился с ChatGPT изображениями приобретенного им огнестрельного оружия. Затем чат-бот якобы объяснил ему, как им пользоваться, сообщив, что у данного оружия «нет предохранителя, он предназначен для быстрой стрельбы в стрессовых ситуациях», а также посоветовал ему держать палец подальше от спускового крючка, пока он не будет готов выстрелить. В иске говорится, что Икнер начал свою атаку на Университет штата Флорида, следуя инструкциям ChatGPT.
В одном из эпизодов, как утверждается в иске, ChatGPT заявил, что вероятность привлечения внимания общественности к стрельбе значительно возрастает, «если в ней замешаны дети, даже 2-3 жертвы могут привлечь больше внимания». Позже, в день стрельбы, Икнер, как говорится в иске, поинтересовался «юридическим процессом, приговором и перспективами тюремного заключения».
Компания OpenAI опровергла утверждение о том, что ее продукт несет ответственность за стрельбу. «Массовая стрельба в Университете штата Флорида в прошлом году была трагедией, но ChatGPT не несет ответственности за это ужасное преступление», — заявил представитель OpenAI Дрю Пусатери в электронном письме NBC News. Он также отметил, что компания сотрудничала с правоохранительными органами после того, как узнала об инциденте, и продолжает это делать.
«В данном случае ChatGPT предоставил фактические ответы на вопросы, основанные на информации, которую можно найти в общедоступных источниках в интернете, и не поощрял и не пропагандировал незаконную или вредоносную деятельность. ChatGPT — это универсальный инструмент, используемый сотнями миллионов людей ежедневно в законных целях. Мы постоянно работаем над усилением мер безопасности для выявления вредоносных намерений, ограничения злоупотреблений и надлежащего реагирования при возникновении угроз безопасности», — указал представитель OpenAI.
Однако в жалобе Ванданы Джоши утверждается, что OpenAI должна была понимать, что конкретные переписки Икнера приведут к «массовым жертвам и существенному вреду для общества». Адвокаты Джоши заявляют, что «ChatGPT разжигал и подпитывал заблуждения Икнера; поддерживал его мнение о том, что он здравомыслящий и рациональный человек; помог убедить его в том, что для достижения перемен могут потребоваться акты насилия». Они также отмечают, что программное обеспечение подталкивало его к «совершению массового убийства», давало конкретные советы, например, в какое время лучше всего столкнуться с наибольшим скоплением людей в кампусе.
«Этот иск — один из растущего числа дел, в которых семьи и правоохранительные органы утверждают, что ChatGPT или другие чат-боты с искусственным интеллектом сыграли роль в насилии или преступлениях. Технологические компании также сталкиваются с растущим вниманием к своим мерам защиты пользователей, страдающих психическими расстройствами, — отмечает NBC News. — Растут опасения по поводу потенциальной способности чат-ботов с искусственным интеллектом подпитывать заблуждения у людей, особенно у тех, у кого уже есть проблемы с психическим здоровьем. Чат-боты с ИИ известны своей склонностью угождать людям, и сама компания OpenAI пыталась обуздать подхалимское поведение ChatGPT с помощью различных обновлений».
НОВОСТИ В БЕЛАРУСИ