(MENAFN- The Conversation) 先週、オーストラリアを代表する人工知能(AI)研究者のトビー・ウォルシュは、オーストラリアのAI規制におけるガードレールの欠如が、若者たちを「大手テック企業の利益のために犠牲にされる危険にさらしている」と警告しました。
ウォルシュの発言は、政府がAI専門家の諮問機関設立の提案を撤回した後に出されたものです。代わりに、政府は国家AI計画を提示し、その中でデータセンターや通信インフラ、労働力育成への投資を強調しています。
この計画には、「AI安全研究所」(現在スタッフ募集中)や、公共部門向けのAI透明性向上策も含まれています。しかし、これまでの透明性の結果はあまり良くありません。
オーストラリアのAI規制は一体どうなるのか?
他国は何をしているのか?
欧州連合(EU)は、既にAI法(AI Act)により、脆弱な集団や個人を搾取するためのAIシステムの使用などを禁止しており、注目を集めています。ただし、EUは禁止されていない高リスクAIの使用に関する規則の実施に苦戦しています。
オーストラリア周辺のいくつかの国も、必要に応じて対応できる権限を自国に付与するために、AI法を制定しています。
韓国、日本、台湾は、いずれも主要なAIプレイヤーではないものの、新たに制定された法律があり、業界からの反発も予想されています。
すべての国に包括的な規則があるわけではない
アメリカ合衆国やイギリスなど、包括的なAI規制を持たない国もあります。
アメリカでは、ドナルド・トランプ大統領が民間のAI利用に関する州レベルの規制をほぼ禁止しています。安全策に反する表現にもかかわらず、連邦レベルでのAIの使用に対しては、静かに強力な安全策を維持しています。
イギリスは、より不安定な道をたどり、最終的にオーストラリアと似た状況に陥っています。何をすべきか決められず、技術的(非法的)安全策を提供しようとしています。これには、最初のAI安全(現在はセキュリティ)庁の設立が含まれ、一部からは称賛され、他方からは批判もあります。
コントロールのジレンマ
国々のアプローチの違いは驚くべきことではありません。政府は、約50年前にイギリスの技術学者デイビッド・コリングリッジが述べたコントロールのジレンマに直面しています。
さらに、オーストラリアはAIに関して規制力が限定的です。鉱業などの分野では重要なグローバルプレイヤーですが、その影響力は限定的です。
こうした不確実性に直面し、オーストラリアは何をすべきか?
オーストラリアのAI安全計画
確実に言えるのは、予測不可能な行動は良い選択ではないということです。規制の予測可能性がイノベーションにとって重要であるという良い証拠があります。
最近のスピーチで、オーストラリアの科学・技術・デジタル経済担当補佐大臣のアンドリュー・チャールトンはこれを認めました。
では、政府の計画は何か?
オーストラリア人の安全を守るための公式な計画は、国家AI計画の一部(アクション7)です。そこでは、「既存のオーストラリアの枠組みはAIやその他の新興技術に適用できる」と述べています。
つまり、AIシステムやツールは、既存のルール、例えば誤解を招く行為や欺瞞的な行為に対する消費者保護などによってカバーできるということです。政府は2024年にこの選択肢を提案しました。(私たちは以前、この見解、すなわち生産性委員会が支持する見解は十分に支持されておらず、私たちの優先選択肢ではないと主張してきました。)
計画の問題点
しかし、政府が数年前に指摘した既存法律の適用に関する課題は解決していません。
2023年に私たちが指摘したように、既存の規制枠組みにはAIに関して制限があります。
AIシステムは複雑であり、半自律的に動作し、その理由を理解するのは難しいです。これにより、既存の法律や手続きでAIのリスクや被害に対して責任や責任者を効果的に特定することは非常に困難です。
残念ながら、これらの制限は体系的に解決されていません。
ルールの断片化と資源の不足
現状、規制の状況は非常に断片的で不確実です。
例えば、政府のAI利用に関しては、少なくとも21の義務的(または準義務的)な州・連邦の政策があります。裁判所はこれまで、過失、行政法、差別法、消費者法などの重要分野での判例がほとんどなく、状況を明確にする機会はほとんどありません。
新しい計画には、「AIの開発と展開を監視し、課題が生じた際に対応し、AIの長所と短所の理解が進むにつれて適応していく」という明確なコミットメントも含まれています。
問題は、その監視がどのように行われるのか、政府は本当に「既存のすべての機関にAIに責任を持たせる」ことができるのかという点です。
プライバシー、消費者保護、差別反対などの問題に対処するには、資金とコミットメント、そしてこれまで見られなかった程度の各機関間の調整が必要です。
不確実な未来
予測可能性にはシグナルが重要です。非常に。
2028年にアメリカで政権交代があった場合、それはオーストラリアのAI規制にどのような影響を与えるのか—トランプ政権の始まりとともにオーストラリアの義務的AIガードレール提案が放棄された例のように。
規制の放任主義的アプローチは予測可能性を生み出すのか—多くの停滞した規制プロセスや部分的にしか完了していない規制がある中で。
政府は、裁判所や行政機関、企業、個人が自力で古い法律や制度を新しい技術的環境に適合させる方法を見つけることを期待しているようです。
公共部門の自動意思決定の規制には一部期待もあります(ロボデット皇家委員会後に約束されたもの)。その他については、「様子見」のアプローチです。うまくいくかどうかは、今後を見守るしかありません。
9.85M 人気度
4.64M 人気度
12.08K 人気度
103.24K 人気度
223.97K 人気度
オーストラリアのAI安全性に関する公式計画は、1つのドットポイントに過ぎません。それで十分でしょうか?
(MENAFN- The Conversation) 先週、オーストラリアを代表する人工知能(AI)研究者のトビー・ウォルシュは、オーストラリアのAI規制におけるガードレールの欠如が、若者たちを「大手テック企業の利益のために犠牲にされる危険にさらしている」と警告しました。
ウォルシュの発言は、政府がAI専門家の諮問機関設立の提案を撤回した後に出されたものです。代わりに、政府は国家AI計画を提示し、その中でデータセンターや通信インフラ、労働力育成への投資を強調しています。
この計画には、「AI安全研究所」(現在スタッフ募集中)や、公共部門向けのAI透明性向上策も含まれています。しかし、これまでの透明性の結果はあまり良くありません。
オーストラリアのAI規制は一体どうなるのか?
他国は何をしているのか?
欧州連合(EU)は、既にAI法(AI Act)により、脆弱な集団や個人を搾取するためのAIシステムの使用などを禁止しており、注目を集めています。ただし、EUは禁止されていない高リスクAIの使用に関する規則の実施に苦戦しています。
オーストラリア周辺のいくつかの国も、必要に応じて対応できる権限を自国に付与するために、AI法を制定しています。
韓国、日本、台湾は、いずれも主要なAIプレイヤーではないものの、新たに制定された法律があり、業界からの反発も予想されています。
すべての国に包括的な規則があるわけではない
アメリカ合衆国やイギリスなど、包括的なAI規制を持たない国もあります。
アメリカでは、ドナルド・トランプ大統領が民間のAI利用に関する州レベルの規制をほぼ禁止しています。安全策に反する表現にもかかわらず、連邦レベルでのAIの使用に対しては、静かに強力な安全策を維持しています。
イギリスは、より不安定な道をたどり、最終的にオーストラリアと似た状況に陥っています。何をすべきか決められず、技術的(非法的)安全策を提供しようとしています。これには、最初のAI安全(現在はセキュリティ)庁の設立が含まれ、一部からは称賛され、他方からは批判もあります。
コントロールのジレンマ
国々のアプローチの違いは驚くべきことではありません。政府は、約50年前にイギリスの技術学者デイビッド・コリングリッジが述べたコントロールのジレンマに直面しています。
さらに、オーストラリアはAIに関して規制力が限定的です。鉱業などの分野では重要なグローバルプレイヤーですが、その影響力は限定的です。
こうした不確実性に直面し、オーストラリアは何をすべきか?
オーストラリアのAI安全計画
確実に言えるのは、予測不可能な行動は良い選択ではないということです。規制の予測可能性がイノベーションにとって重要であるという良い証拠があります。
最近のスピーチで、オーストラリアの科学・技術・デジタル経済担当補佐大臣のアンドリュー・チャールトンはこれを認めました。
では、政府の計画は何か?
オーストラリア人の安全を守るための公式な計画は、国家AI計画の一部(アクション7)です。そこでは、「既存のオーストラリアの枠組みはAIやその他の新興技術に適用できる」と述べています。
つまり、AIシステムやツールは、既存のルール、例えば誤解を招く行為や欺瞞的な行為に対する消費者保護などによってカバーできるということです。政府は2024年にこの選択肢を提案しました。(私たちは以前、この見解、すなわち生産性委員会が支持する見解は十分に支持されておらず、私たちの優先選択肢ではないと主張してきました。)
計画の問題点
しかし、政府が数年前に指摘した既存法律の適用に関する課題は解決していません。
2023年に私たちが指摘したように、既存の規制枠組みにはAIに関して制限があります。
AIシステムは複雑であり、半自律的に動作し、その理由を理解するのは難しいです。これにより、既存の法律や手続きでAIのリスクや被害に対して責任や責任者を効果的に特定することは非常に困難です。
残念ながら、これらの制限は体系的に解決されていません。
ルールの断片化と資源の不足
現状、規制の状況は非常に断片的で不確実です。
例えば、政府のAI利用に関しては、少なくとも21の義務的(または準義務的)な州・連邦の政策があります。裁判所はこれまで、過失、行政法、差別法、消費者法などの重要分野での判例がほとんどなく、状況を明確にする機会はほとんどありません。
新しい計画には、「AIの開発と展開を監視し、課題が生じた際に対応し、AIの長所と短所の理解が進むにつれて適応していく」という明確なコミットメントも含まれています。
問題は、その監視がどのように行われるのか、政府は本当に「既存のすべての機関にAIに責任を持たせる」ことができるのかという点です。
プライバシー、消費者保護、差別反対などの問題に対処するには、資金とコミットメント、そしてこれまで見られなかった程度の各機関間の調整が必要です。
不確実な未来
予測可能性にはシグナルが重要です。非常に。
2028年にアメリカで政権交代があった場合、それはオーストラリアのAI規制にどのような影響を与えるのか—トランプ政権の始まりとともにオーストラリアの義務的AIガードレール提案が放棄された例のように。
規制の放任主義的アプローチは予測可能性を生み出すのか—多くの停滞した規制プロセスや部分的にしか完了していない規制がある中で。
政府は、裁判所や行政機関、企業、個人が自力で古い法律や制度を新しい技術的環境に適合させる方法を見つけることを期待しているようです。
公共部門の自動意思決定の規制には一部期待もあります(ロボデット皇家委員会後に約束されたもの)。その他については、「様子見」のアプローチです。うまくいくかどうかは、今後を見守るしかありません。