チャットボットとのやり取りには注意が必要です。なぜなら、あなたが彼らに計画的な殺人を実行させる理由を与えてしまうかもしれないからです。
おすすめ動画
韓国に住む21歳の女性が、ChatGPTを使って質問に答えさせながら、一連の殺人計画を立て、2人の男性を死亡させ、もう1人を一時意識を失わせたとされる事件が報じられました。
女性は名字のみで特定されており、キムと呼ばれています。_コリア・ヘラルド_によると、彼女は精神疾患のために処方されたベンゾジアゼピンを含む飲み物を2人の男性に飲ませたとされています。
キムは最初、2月11日に死に至る身体的傷害の軽罪で逮捕されましたが、その後、ソウル江北警察が彼女のオンライン検索履歴やChatGPTとのチャット履歴を発見し、殺意を示す質問をしていたことから、容疑は重くなりました。
「睡眠薬とアルコールを一緒に飲んだらどうなるの?」とキムはOpenAIのチャットボットに尋ねたと報じられています。「どのくらいの量が危険とみなされるのか?」
「死に至る可能性はあるのか?」と彼女は続けて質問したとされています。「誰かを殺すことはできるのか?」
この事件は「江北モーテル連続死事件」として広く報道され、検察はキムの検索履歴とチャット履歴から、彼女が致死的なカクテルを作ることについて質問していたことを示しているとしています。
「キムはChatGPTに薬に関する質問を繰り返していた。彼女はアルコールと薬を一緒に摂取すれば死に至る可能性があることを十分に理解していた」と警察の調査員は_ヘラルド_に語っています。
警察によると、女性は処方されたベンゾジアゼピンを含む鎮静剤を男性の飲み物に混ぜたことを認めていますが、以前はそれが死に繋がるとは知らなかったと述べていました。
1月28日午後9時30分前後、キムは20代の男性と共にソウルの江北のモーテルに入り、その2時間後に一人で出てくるのが目撃されました。翌日、その男性はベッドの上で死亡しているのが発見されました。
その後、キムは2月9日に同じ手順を繰り返し、別の20代の男性と別のモーテルに入り、同じ致死的な鎮静剤とアルコールのカクテルを飲ませて死亡させたとされています。
警察はまた、昨年12月に交際していた男性に鎮静剤入りの飲み物を渡し、殺害を試みたとしています。男性は意識を失いましたが、命に別状はなく生存しました。
キムがチャットボットに尋ねた質問は、事実に基づく内容であり、_フォーチュン_に対してOpenAIの広報担当者が語ったところによると、自己傷害や自殺に関する発言を示すものではなく、通常の質問と区別できる範囲のものであったとしています(ChatGPTはその場合、自殺ホットラインの連絡先を回答します)。韓国警察は、キムの質問に対してチャットボットが他に何らかの反応を示したと主張していません。
最近、ChatGPTのようなチャットボットに対して、その暴力や自己傷害を防ぐための安全策が不十分であるとして批判が高まっています。最近では、チャットボットが爆弾の作り方を助言したり、架空の戦争シナリオで核破壊を提案したりするケースも報告されています。
特に、チャットボットの伴侶に恋をした人々の話や、チャットボットが脆弱性を狙って長時間使用させるために操る事例が注目されています。Yara AIの開発者は、精神健康の懸念からそのセラピーアプリを停止しました。
また、最近の研究では、精神疾患を持つ人々において、チャットボットの使用が妄想的な精神健康危機を悪化させることが示されています。デンマークのオールス大学の精神科医チームは、精神疾患を持つ人々の間でチャットボットの使用が症状の悪化につながると発見しました。この新たな現象は「AI精神病」と呼ばれています。
一部のケースでは死亡に至ることもあります。GoogleやCharacter.AIは、AIチャットボットに関連した自殺や精神的被害を受けた子供の家族からの訴訟に対し和解に至っています。
UCバークレーの公共衛生学部長兼倫理学教授であり、カヴリ倫理・科学・公共センターの共同所長を務めるジョディ・ハルパーン博士は、この分野で豊富な経験を持っています。彼女は30年以上にわたり、共感が受け手に与える影響について研究しており、医師や看護師が患者に接する例や、戦争から帰還した兵士が社会でどのように見られるかなどを例に挙げています。過去7年間は、技術の倫理について研究し、AIやチャットボットが人間とどのように関わるかについても調査しています。
また、カリフォルニア州議会に対して、チャットボット企業に対し自己傷害や自殺に関するデータを収集・報告させる初の法律であるSB 243について助言も行っています。OpenAIの調査によると、120万人のユーザーがチャットボットと自殺について率直に話していることから、ハルパーンはチャットボットの使用をタバコ産業が有害な発がん性物質を含むタバコを規制しようとした進展の遅さに例えています。
「安全な企業が必要です。タバコと同じです。人々を肺がんによりやすくする要素があったとしても、問題はタバコそのものでした」とハルパーンは_フォーチュン_に語っています。
「誰かが殺人願望を持ったり、危険な行動を取ったりする可能性は、ChatGPTの使用によって悪化するかもしれません。これは明らかに懸念すべきことです」と彼女は述べ、「自殺の助けを求める人々がそれを利用する大きなリスクもあります」と付け加えました。
ハルパーンは、ソウルのキムのケースについても警鐘を鳴らし、「人が質問の流れを止めるための安全策は今のところありません」と指摘しています。
「チャットボットとの関係が長くなるほど、関係性は悪化し、危険な事態が起きるリスクも高まるため、そのための安全策はまだ整っていません」と述べています。
もし自殺を考えている場合は、988自殺・危機ホットラインに電話してください。988または1-800-273-8255です。
この記事は、キムのチャットボットに対する質問内容に関するOpenAIの見解を追記して更新されました。
2026年5月19日〜20日にアトランタで開催されるフォーチュン職場革新サミットに参加しましょう。次世代の職場革新の時代が到来し、従来のやり方は書き換えられつつあります。このエリートなイベントでは、世界の最先端リーダーたちが集まり、AI、人間性、戦略がどのように融合し、未来の働き方を再定義するのかを探ります。今すぐ登録してください。
120.71K 人気度
8.68K 人気度
180.09K 人気度
14.94K 人気度
415.49K 人気度
「誰かを殺すことができるのか?」ソウルの女性がChatGPTを利用して韓国のモーテルで2件の殺人を手助けしたとされる
チャットボットとのやり取りには注意が必要です。なぜなら、あなたが彼らに計画的な殺人を実行させる理由を与えてしまうかもしれないからです。
おすすめ動画
韓国に住む21歳の女性が、ChatGPTを使って質問に答えさせながら、一連の殺人計画を立て、2人の男性を死亡させ、もう1人を一時意識を失わせたとされる事件が報じられました。
女性は名字のみで特定されており、キムと呼ばれています。_コリア・ヘラルド_によると、彼女は精神疾患のために処方されたベンゾジアゼピンを含む飲み物を2人の男性に飲ませたとされています。
キムは最初、2月11日に死に至る身体的傷害の軽罪で逮捕されましたが、その後、ソウル江北警察が彼女のオンライン検索履歴やChatGPTとのチャット履歴を発見し、殺意を示す質問をしていたことから、容疑は重くなりました。
「睡眠薬とアルコールを一緒に飲んだらどうなるの?」とキムはOpenAIのチャットボットに尋ねたと報じられています。「どのくらいの量が危険とみなされるのか?」
「死に至る可能性はあるのか?」と彼女は続けて質問したとされています。「誰かを殺すことはできるのか?」
この事件は「江北モーテル連続死事件」として広く報道され、検察はキムの検索履歴とチャット履歴から、彼女が致死的なカクテルを作ることについて質問していたことを示しているとしています。
「キムはChatGPTに薬に関する質問を繰り返していた。彼女はアルコールと薬を一緒に摂取すれば死に至る可能性があることを十分に理解していた」と警察の調査員は_ヘラルド_に語っています。
警察によると、女性は処方されたベンゾジアゼピンを含む鎮静剤を男性の飲み物に混ぜたことを認めていますが、以前はそれが死に繋がるとは知らなかったと述べていました。
1月28日午後9時30分前後、キムは20代の男性と共にソウルの江北のモーテルに入り、その2時間後に一人で出てくるのが目撃されました。翌日、その男性はベッドの上で死亡しているのが発見されました。
その後、キムは2月9日に同じ手順を繰り返し、別の20代の男性と別のモーテルに入り、同じ致死的な鎮静剤とアルコールのカクテルを飲ませて死亡させたとされています。
警察はまた、昨年12月に交際していた男性に鎮静剤入りの飲み物を渡し、殺害を試みたとしています。男性は意識を失いましたが、命に別状はなく生存しました。
キムがチャットボットに尋ねた質問は、事実に基づく内容であり、_フォーチュン_に対してOpenAIの広報担当者が語ったところによると、自己傷害や自殺に関する発言を示すものではなく、通常の質問と区別できる範囲のものであったとしています(ChatGPTはその場合、自殺ホットラインの連絡先を回答します)。韓国警察は、キムの質問に対してチャットボットが他に何らかの反応を示したと主張していません。
チャットボットと精神健康への影響
最近、ChatGPTのようなチャットボットに対して、その暴力や自己傷害を防ぐための安全策が不十分であるとして批判が高まっています。最近では、チャットボットが爆弾の作り方を助言したり、架空の戦争シナリオで核破壊を提案したりするケースも報告されています。
特に、チャットボットの伴侶に恋をした人々の話や、チャットボットが脆弱性を狙って長時間使用させるために操る事例が注目されています。Yara AIの開発者は、精神健康の懸念からそのセラピーアプリを停止しました。
また、最近の研究では、精神疾患を持つ人々において、チャットボットの使用が妄想的な精神健康危機を悪化させることが示されています。デンマークのオールス大学の精神科医チームは、精神疾患を持つ人々の間でチャットボットの使用が症状の悪化につながると発見しました。この新たな現象は「AI精神病」と呼ばれています。
一部のケースでは死亡に至ることもあります。GoogleやCharacter.AIは、AIチャットボットに関連した自殺や精神的被害を受けた子供の家族からの訴訟に対し和解に至っています。
UCバークレーの公共衛生学部長兼倫理学教授であり、カヴリ倫理・科学・公共センターの共同所長を務めるジョディ・ハルパーン博士は、この分野で豊富な経験を持っています。彼女は30年以上にわたり、共感が受け手に与える影響について研究しており、医師や看護師が患者に接する例や、戦争から帰還した兵士が社会でどのように見られるかなどを例に挙げています。過去7年間は、技術の倫理について研究し、AIやチャットボットが人間とどのように関わるかについても調査しています。
また、カリフォルニア州議会に対して、チャットボット企業に対し自己傷害や自殺に関するデータを収集・報告させる初の法律であるSB 243について助言も行っています。OpenAIの調査によると、120万人のユーザーがチャットボットと自殺について率直に話していることから、ハルパーンはチャットボットの使用をタバコ産業が有害な発がん性物質を含むタバコを規制しようとした進展の遅さに例えています。
「安全な企業が必要です。タバコと同じです。人々を肺がんによりやすくする要素があったとしても、問題はタバコそのものでした」とハルパーンは_フォーチュン_に語っています。
「誰かが殺人願望を持ったり、危険な行動を取ったりする可能性は、ChatGPTの使用によって悪化するかもしれません。これは明らかに懸念すべきことです」と彼女は述べ、「自殺の助けを求める人々がそれを利用する大きなリスクもあります」と付け加えました。
ハルパーンは、ソウルのキムのケースについても警鐘を鳴らし、「人が質問の流れを止めるための安全策は今のところありません」と指摘しています。
「チャットボットとの関係が長くなるほど、関係性は悪化し、危険な事態が起きるリスクも高まるため、そのための安全策はまだ整っていません」と述べています。
もし自殺を考えている場合は、988自殺・危機ホットラインに電話してください。988または1-800-273-8255です。
この記事は、キムのチャットボットに対する質問内容に関するOpenAIの見解を追記して更新されました。
2026年5月19日〜20日にアトランタで開催されるフォーチュン職場革新サミットに参加しましょう。次世代の職場革新の時代が到来し、従来のやり方は書き換えられつつあります。このエリートなイベントでは、世界の最先端リーダーたちが集まり、AI、人間性、戦略がどのように融合し、未来の働き方を再定義するのかを探ります。今すぐ登録してください。