広場
最新
注目
ニュース
プロフィール
ポスト
DAOdreamer
2026-04-27 12:20:33
フォロー
サム・アルトマンと彼がOpenAIで行っていることについて興味深い詳細に最近気づいた。彼が公の場で語ることと、裏でやっていることとの間の矛盾は並大抵ではない。
まず、最近のサンフランシスコでの出来事から始めよう。4月10日、午前3時40分頃、20歳の男性、ダニエル・モレノ=ガマがアルトマンのアパートの扉に火炎瓶を投げつけた。扉の周りに火がつき、彼は逃走した。約1時間後、同じ人物がOpenAIのオフィス付近に現れ、再び火をつけると脅した後、逮捕された。
2日後の4月12日、午前1時40分、ホンダの車がアルトマンの別の家の横に停まり、乗車していた人物が窓から手を出し、家に向かって発射した。防犯カメラはナンバープレートを記録しており、その後、2人の容疑者が逮捕された。両者とも過失による発砲の罪で起訴された。
興味深いのは、最初の攻撃の容疑者、モレノ=ガマが高度なAIに関して懸念を抱いていたことだ。彼はソーシャルメディアに、Dune(デューン)からの引用を用いて、AIの失敗が人類の存続に対するリスクだと主張し、テクノロジーリーダーたちが「ポストヒューマニズム」の思想を追求し、人類の運命を危険にさらしていると批判した。
最初の攻撃の後、アルトマンはブログ投稿を行い、反対派の倫理的立場を認め、「率直かつ比較的少ない議論を促す」必要性を訴えた。彼はまた、攻撃直前に掲載されたThe New Yorkerの深層記事に反応し、「メディアのストーリーテリングの力と言葉の過小評価」を述べた。2日後、彼の住居に再び銃撃があった。
この事件は、より大きな流れとつながっている。2024年12月、ユナイテッドヘルスケアのCEOがホテルの外で射殺された事件だ。容疑者は一流大学の卒業生で、医療保険業界を批判するメッセージを残していた。この事件は、ソーシャルメディア上で異例の反応を呼び、多くのユーザーが犯人に同情的なコメントをした。
この事件以降、経営幹部の安全保障は「特権」から「生存のための必要性」へと変化した。Fortuneの情報によると、大手企業の幹部に対する身体的攻撃の件数は2023年以降225%増加し、S&P 500企業の33.8%が2025年の財務報告でセキュリティコストを報告している。2020年の23.3%と比べて増加している。
平均的なセキュリティコストは13万ドルで、前年から20%増、5年で倍増している。AI業界はこのトレンドの最先端かつ顕著な結果を示している。
2024年の主要10社のCEOのセキュリティ費用は合計で4500万ドルを超え、マーク・ザッカーバーグだけで2,700万ドル以上を費やし、Apple、Google、その他4社のCEOの合計を上回る。NVIDIAのジェンセン・フアンは2025年に350万ドルを費やし、前年から59%増。Googleのスナイ・ピチャイは827万ドルで、22%増だった。
しかし、AI業界には他の産業にはない特異な点がある。それは、創造者自身もこの技術が文明を破壊する可能性を信じていることだ。ピュー研究所の2025年の調査では、世界28,333人に対し、AIにワクワクしていると答えたのはわずか16%、懸念を示したのは34%だった。直感に反して、高学歴・高所得者ほどAIの制御喪失を懸念していることも明らかになった。
最近では、インディアナポリス市議会議員のロン・ジブソンの自宅が13発の銃弾に撃たれ、8歳の息子が銃声で目を覚ました。扉には手書きの紙に「データセンターを作るな」と書かれていた。FBIが調査に入り、ジョージ・ワシントン大学の研究者は、データセンターがテクノロジーと政府に反対する過激派の標的になりつつあると指摘している。
この恐怖は業界内では秘密ではないが、公には語られてこなかった。アルトマンは2016年にワイオミングにバンカーを建設した。これはOpenAIの設立とほぼ同じ時期だ。同時に、彼は舞台上でAIは人類最大のチャンスだと語りながら、民間軍事力のための武器を蓄えていた。
OpenAIの過去5年間の主要なストーリーは、「AGIの存在レベルの脅威」の深刻さを強調し、政府に規制の重要性を訴え、投資家にリスクを理解させ、産業界にこの競争に失敗できないことを認識させることだった。「これは人類史上最も危険な技術だ」というフレーズは、公開された後、単なる技術界だけでなく、広く伝播し、時には行動の命令にまで変わる。
モレノ=ガマはInstagramに、「指数関数的進歩と不整合は生存のリスクだ」と書いた。この論理構造は、多くのAI安全性研究の根幹にあり、OpenAIも支援または承認している。
今年2月27日、OpenAIは米国国防総省と契約を結び、ChatGPTを国家安全保障の秘密ネットワークで使用できるようにした。同じ日に、アルトマンはAnthropicの軍事用途制限の立場を支持するコメントを出した。
ChatGPTのアンインストールは1日で295%増加し、1つ星レビューは24時間で775%増えた。QuitGPT運動には150万人以上が参加。3月21日、サンフランシスコで約200人の抗議者が、Anthropic、OpenAI、xAIを横断し、3人のCEOに対し高度なAI開発の停止を求めてデモを行った。同時にロンドンでは史上最大の反AIデモも行われた。
アルトマンのバンカーとセキュリティスタッフは、外部からのリスクと彼が構築しているものの両方に対応できるよう設計されている。彼は個人的には両方のリスクを真剣に捉えているが、公の場では一方だけを認めている。
最初の攻撃と同じ週に掲載されたThe New Yorkerの深層記事は、100人以上の関係者へのインタビューをもとにしているが、主な反論は「信頼できない」の二言だけだった。記事は、元OpenAI理事の証言として、アルトマンを「反社会的な性格の人物」と呼び、「真実に縛られていない」と記述している。多くの同僚は、彼がAIの安全性について何度も立場を変え、必要に応じて権力構造を調整してきたと証言した。
彼の投稿で、アルトマンは自分が対立を避ける傾向があることを認めている。彼は「AIは存在の危機だ」というストーリーを作り、資金調達や規制交渉の道具として利用したが、最終的にはこのツールは手からこぼれ落ち、再び彼の扉にぶつかることになった。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
WCTCTradingKingPK
330.89K 人気度
#
CryptoMarketsDipSlightly
230.96K 人気度
#
IsraelStrikesIranBTCPlunges
35.19K 人気度
#
#DailyPolymarketHotspot
661.42K 人気度
#
SolanaReleasesQuantumRoadmap
12.75M 人気度
ピン
サイトマップ
サム・アルトマンと彼がOpenAIで行っていることについて興味深い詳細に最近気づいた。彼が公の場で語ることと、裏でやっていることとの間の矛盾は並大抵ではない。
まず、最近のサンフランシスコでの出来事から始めよう。4月10日、午前3時40分頃、20歳の男性、ダニエル・モレノ=ガマがアルトマンのアパートの扉に火炎瓶を投げつけた。扉の周りに火がつき、彼は逃走した。約1時間後、同じ人物がOpenAIのオフィス付近に現れ、再び火をつけると脅した後、逮捕された。
2日後の4月12日、午前1時40分、ホンダの車がアルトマンの別の家の横に停まり、乗車していた人物が窓から手を出し、家に向かって発射した。防犯カメラはナンバープレートを記録しており、その後、2人の容疑者が逮捕された。両者とも過失による発砲の罪で起訴された。
興味深いのは、最初の攻撃の容疑者、モレノ=ガマが高度なAIに関して懸念を抱いていたことだ。彼はソーシャルメディアに、Dune(デューン)からの引用を用いて、AIの失敗が人類の存続に対するリスクだと主張し、テクノロジーリーダーたちが「ポストヒューマニズム」の思想を追求し、人類の運命を危険にさらしていると批判した。
最初の攻撃の後、アルトマンはブログ投稿を行い、反対派の倫理的立場を認め、「率直かつ比較的少ない議論を促す」必要性を訴えた。彼はまた、攻撃直前に掲載されたThe New Yorkerの深層記事に反応し、「メディアのストーリーテリングの力と言葉の過小評価」を述べた。2日後、彼の住居に再び銃撃があった。
この事件は、より大きな流れとつながっている。2024年12月、ユナイテッドヘルスケアのCEOがホテルの外で射殺された事件だ。容疑者は一流大学の卒業生で、医療保険業界を批判するメッセージを残していた。この事件は、ソーシャルメディア上で異例の反応を呼び、多くのユーザーが犯人に同情的なコメントをした。
この事件以降、経営幹部の安全保障は「特権」から「生存のための必要性」へと変化した。Fortuneの情報によると、大手企業の幹部に対する身体的攻撃の件数は2023年以降225%増加し、S&P 500企業の33.8%が2025年の財務報告でセキュリティコストを報告している。2020年の23.3%と比べて増加している。
平均的なセキュリティコストは13万ドルで、前年から20%増、5年で倍増している。AI業界はこのトレンドの最先端かつ顕著な結果を示している。
2024年の主要10社のCEOのセキュリティ費用は合計で4500万ドルを超え、マーク・ザッカーバーグだけで2,700万ドル以上を費やし、Apple、Google、その他4社のCEOの合計を上回る。NVIDIAのジェンセン・フアンは2025年に350万ドルを費やし、前年から59%増。Googleのスナイ・ピチャイは827万ドルで、22%増だった。
しかし、AI業界には他の産業にはない特異な点がある。それは、創造者自身もこの技術が文明を破壊する可能性を信じていることだ。ピュー研究所の2025年の調査では、世界28,333人に対し、AIにワクワクしていると答えたのはわずか16%、懸念を示したのは34%だった。直感に反して、高学歴・高所得者ほどAIの制御喪失を懸念していることも明らかになった。
最近では、インディアナポリス市議会議員のロン・ジブソンの自宅が13発の銃弾に撃たれ、8歳の息子が銃声で目を覚ました。扉には手書きの紙に「データセンターを作るな」と書かれていた。FBIが調査に入り、ジョージ・ワシントン大学の研究者は、データセンターがテクノロジーと政府に反対する過激派の標的になりつつあると指摘している。
この恐怖は業界内では秘密ではないが、公には語られてこなかった。アルトマンは2016年にワイオミングにバンカーを建設した。これはOpenAIの設立とほぼ同じ時期だ。同時に、彼は舞台上でAIは人類最大のチャンスだと語りながら、民間軍事力のための武器を蓄えていた。
OpenAIの過去5年間の主要なストーリーは、「AGIの存在レベルの脅威」の深刻さを強調し、政府に規制の重要性を訴え、投資家にリスクを理解させ、産業界にこの競争に失敗できないことを認識させることだった。「これは人類史上最も危険な技術だ」というフレーズは、公開された後、単なる技術界だけでなく、広く伝播し、時には行動の命令にまで変わる。
モレノ=ガマはInstagramに、「指数関数的進歩と不整合は生存のリスクだ」と書いた。この論理構造は、多くのAI安全性研究の根幹にあり、OpenAIも支援または承認している。
今年2月27日、OpenAIは米国国防総省と契約を結び、ChatGPTを国家安全保障の秘密ネットワークで使用できるようにした。同じ日に、アルトマンはAnthropicの軍事用途制限の立場を支持するコメントを出した。
ChatGPTのアンインストールは1日で295%増加し、1つ星レビューは24時間で775%増えた。QuitGPT運動には150万人以上が参加。3月21日、サンフランシスコで約200人の抗議者が、Anthropic、OpenAI、xAIを横断し、3人のCEOに対し高度なAI開発の停止を求めてデモを行った。同時にロンドンでは史上最大の反AIデモも行われた。
アルトマンのバンカーとセキュリティスタッフは、外部からのリスクと彼が構築しているものの両方に対応できるよう設計されている。彼は個人的には両方のリスクを真剣に捉えているが、公の場では一方だけを認めている。
最初の攻撃と同じ週に掲載されたThe New Yorkerの深層記事は、100人以上の関係者へのインタビューをもとにしているが、主な反論は「信頼できない」の二言だけだった。記事は、元OpenAI理事の証言として、アルトマンを「反社会的な性格の人物」と呼び、「真実に縛られていない」と記述している。多くの同僚は、彼がAIの安全性について何度も立場を変え、必要に応じて権力構造を調整してきたと証言した。
彼の投稿で、アルトマンは自分が対立を避ける傾向があることを認めている。彼は「AIは存在の危機だ」というストーリーを作り、資金調達や規制交渉の道具として利用したが、最終的にはこのツールは手からこぼれ落ち、再び彼の扉にぶつかることになった。