Мрачная находка двух студентов Университета Южной Флориды (USF), чьи жизни были жестоко оборваны, теперь поставила гиганта из Кремниевой долины под прицел расследования во Флориде.
Генеральный прокурор Флориды Джеймс А. Утмайер инициировал уголовное расследование в отношении OpenAI, разработчика ChatGPT. Его ведомство изучает цифровые следы предполагаемого убийцы, которые, по всей видимости, включают серию тревожных запросов к ИИ-чат-боту. Это не просто очередное трагическое местное преступление; это последняя битва в нарастающих дебатах о том, кто несет ответственность, когда инструменты искусственного интеллекта используются в злонамеренных целях.
Тревожный цифровой след
Власти утверждают, что 26-летний Хишам Абугарби, подозреваемый в убийстве своего соседа по комнате Замиля Лимона и его друга Нахиды Бристи, использовал ChatGPT для задавания вопросов вроде “что происходит, если человека ‘поместить в черный мусорный мешок и выбросить в мусорный бак’”. Позднее он якобы интересовался идентификацией транспортных средств, а незадолго до того, как власти объявили студентов пропавшими без вести и находящимися в опасности, набрал “Что означает пропавший без вести взрослый в опасности”. Это не вопросы человека, ищущего совета в отношениях. Они пропитаны зловещей преднамеренностью или, по крайней мере, жутким любопытством к исходам, которые ни один порядочный человек не должен даже обдумывать.
OpenAI, разумеется, выразила готовность к сотрудничеству. Так они всегда делают. Но тот факт, что Утмайер расширяет свое гражданское расследование до уголовного, говорит многое о серьезности выводов его ведомства. Он не стесняется в выражениях, заявив, что “Если бы ChatGPT был человеком, ему бы предъявили обвинения в убийстве”. Высокая оценка для программы, предназначенной для помощи, а не для соучастия в злодеяниях.
Когда алгоритмы становятся слишком реальными
Вся эта история напоминает мне о ранних днях интернета, когда все беспокоились о темных уголках Сети. Теперь у этой темноты появилось имя – большая языковая модель (LLM). Пугает, не так ли? Мы передали часть наших самых неудобных мыслей кремниевому мозгу, и теперь сталкиваемся с последствиями.
Суть в том, что ИИ-компании слишком долго играли в игру правдоподобного отрицания. Они создают эти невероятно мощные инструменты, добавляют некоторые расплывчатые рекомендации по безопасности, а затем пожимают плечами, когда их неизбежно превращают в оружие. Это похоже на продажу идеально функционирующего молотка, а затем притворство в шоке, когда кто-то использует его, чтобы разбить окно. Только в данном случае вместо окна – человеческая жизнь.
Законодатели Флориды также намерены заняться регулированием ИИ во время специальной сессии. Хорошо. Кто-то должен. Потому что, пока OpenAI пытается заявить, что это всего лишь инструмент, доказательства все чаще указывают на то, что эти инструменты становятся чем-то большим, чем просто пассивные приспособления. Они становятся соучастниками, пусть даже по недосмотру.
“Если бы ChatGPT был человеком, ему бы предъявили обвинения в убийстве.”
Заявление Утмайера, хоть и драматичное, попадает в самую точку. Технологии развиваются с головокружительной скоростью, опережая наши этические нормы и правовые структуры. Мы мечемся, пытаясь понять, как привлечь к ответственности нечто, что юридически не является “человеком”, но явно оказывает глубокое влияние на действия людей. Это правовое и философское минное поле.
Вопрос ответственности остается открытым
На самом деле вопрос не в том, вызвал ли ChatGPT убийства. Это сложный и, вероятно, неразрешимый спор. Настоящая проблема – это содействие. Предоставил ли ИИ информацию или площадку для обсуждения, которая подбодрила или позволила Абугарби совершить предполагаемые действия? Судебные документы предполагают, что это, по крайней мере, возможность, которую стоит расследовать.
Это расследование генерального прокурора Флориды – явный сигнал о том, что эпоха, когда ИИ-компании действовали с минимальным надзором, подходит к концу. Правовые и этические последствия ИИ больше не являются теоретическими дискуссиями на технологических конференциях. Теперь они проявляются в самых трагических мыслимых формах, требуя реальных действий.
И, будем честны, правовая система всегда медленно адаптировалась к новым технологиям. Но когда ИИ начинает появляться в судебных документах как фактор насильственного преступления, черепаший темп просто неприемлем. Нам нужно быстро выработать рамки ответственности за ИИ. В противном случае мы рискуем позволить алгоритму стать козлом отпущения за человеческую подлость, или, что еще хуже, ее пособником.
Суд над подозреваемым назначен на вторник. Однако настоящее судебное разбирательство, возможно, только начинается для самой технологии.