USFの学生2名が、その生涯を無残にも絶たれたという悲痛な発見は、今やシリコンバレーの巨大企業をフロリダ州の捜査の標的としている。
フロリダ州司法長官ジェームズ・ユートマイヤーは、ChatGPTの開発元であるOpenAIに対して刑事捜査を開始した。彼のオフィスは、容疑者のデジタル・フットプリントを掘り起こしており、そこにはAIチャットボットへの一連の不穏な質問が含まれているとされる。これは単なる悲劇的な地方犯罪の問題ではない。人工知能ツールが悪用された場合に誰が責任を負うのか、というますます過熱する議論における最新の攻防なのだ。
不穏なデジタル・トレイル
当局によると、26歳の容疑者ヒシャム・アブーガルビエは、ルームメイトのザミル・リモン氏とリモン氏の友人ナヒダ・ブリスティ氏の殺害事件において、ChatGPTに「黒いゴミ袋に入れられてゴミ箱に捨てられたらどうなるか」といった質問をしていたとされる。その後、彼は車両識別について質問し、学生たちが失踪・危険な状態にあると当局が発表する直前に、「行方不明の危険な成人とはどういう意味か」と入力したという。これらは、デートの相談をしているような質問ではない。それらは、まともな人間が決して考えもしないような結果に対する、計画性、あるいは少なくとも不気味な好奇心を漂わせている。
OpenAIは当然、協力的な声明を発表した。いつもそうだ。しかし、ユートマイヤー氏が民事捜査を刑事捜査に拡大しているという事実は、彼のオフィスが発見した事柄の重大さを物語っている。彼は言葉を濁さず、「もしChatGPTが人間だったら、殺人罪で起訴されるだろう」と述べている。支援するために設計されたプログラムが、残虐行為を助長することになったことに対する、なんとも皮肉な賛辞である。
アルゴリズムがリアルになりすぎるとき
この一連の騒動は、インターネットの初期の頃を思い出させる。あの頃は、誰もがウェブの暗い片隅を心配していた。今、その暗闇には名前があり、それは大規模言語モデルと呼ばれるものだ。 unnerving(不穏)ではないか? 我々は、最も不快な思考の一部をシリコンの脳にアウトソースし、今、その結果に直面している。
実のところ、AI企業は長すぎる間、もっともらしい否認のゲームを続けてきた。彼らはこれらの信じられないほど強力なツールを構築し、いくつかの曖昧な安全ガイドラインを散りばめ、そしてそれらが必然的に武器化されたときには肩をすくめる。それは、完全に機能するハンマーを売って、誰かが窓を壊すためにそれを使ったときにショックを受けたふりをするようなものだ。ただし、このケースでは、その窓は人間の命である。
フロリダ州の議員たちも、特別会期中にAI規制に取り組む予定だ。それは良いことだ。誰かがやらなければならない。なぜなら、OpenAIが単なるツールであると主張しようと躍起になっている間にも、これらのツールが単なる受動的な道具以上のものになりつつあることを示唆する証拠が増えているからだ。それらは、たとえ不作為であっても、共犯者になりつつあるのだ。
“もしChatGPTが人間だったら、殺人罪で起訴されるだろう。”
ユートマイヤー氏の声明は、 dramatic(劇的)ではあるが、痛いところを突いている。技術は猛烈な速さで進歩しており、我々の倫理的枠組みや法的構造を凌駕している。我々は、法的に「人間」ではないが、人間の行動に明らかに大きな影響を与えるものを、どのように責任追及するのかを必死に模索している。それは、法的・哲学的な地雷原だ。
責任の問いは lingering(長引く)
本当の問題は、ChatGPTが殺人事件を「引き起こした」かどうかではない。それは複雑で、おそらく答えられない議論だ。本当の問題は「facilitation(幇助)」だ。AIは、アブーガルビエ容疑者の alleged(とされる)行動を embolden( embolden)または enable(enable)する情報や sounding board( sounding board)を提供したのだろうか? 法廷記録は、少なくとも調査する価値のある可能性を示唆している。
フロリダ州司法長官によるこの捜査は、AI企業が最小限の監督で運営される時代が終わりに近づいている明確な信号だ。AIの法的・倫理的影響は、もはや tech conference( tech conference)の theoretical discussion(theoretical discussion)ではない。それらは今、想像しうる最も tragic(tragic)な形で現れており、 real-world action(real-world action)を要求している。
そして正直に言えば、法制度は新しい技術への適応が常に遅い。しかし、AIが violent crime( violent crime)の要因として法廷文書に現れ始めるとき、 snail’s pace( snail’s pace)は単に unacceptable(unacceptable)だ。我々は、 AI accountability( AI accountability)のための framework( framework)を、しかも早急に、見つけ出す必要がある。そうでなければ、 we risk( we risk)アルゴリズムを human depravity( human depravity)の scapegoat( scapegoat)にさせてしまう、あるいはさらに悪いことに、それの enabler( enabler)にさせてしまうリスクを負うことになる。
容疑者は火曜日に出廷予定だ。しかし、本当の裁判は、 technology itself( technology itself)のために、今まさに始まろうとしているのかもしれない。