G7 7 か国のデジタルおよび技術担当大臣は、日本で 2 日間の会議を開き、現在、法的枠組みや制御するための技術的障壁がない人工知能 (AI) 技術産業を制御する方法について話し合いました。
7 人の閣僚グループによる共同声明によると、彼らはこの新しいテクノロジー産業を所有する国間の相互運用性を要求し、AI のガバナンス、技術的枠組み、および一般規則に関する国際的な対話を提案しました。
「私たちは、AI ガバナンスと AI ガバナンス フレームワークの相互運用性に関する国際的な議論の重要性を強調します。同時に、政策アプローチとツールが、志を同じくする人々が G7 メンバー間で信頼できる AI という共通のビジョンと目標を達成することを認識しています。」声明は述べた。
共同声明は、G7グループがAIの信頼性を高めるための国際技術基準の適用を提唱していることも強調しました。 閣僚は、特に知的財産権の保護と誤報との戦いの分野で、AIが社会に及ぼす悪影響を最小限に抑えることを目的とした政策を策定する必要性を強調しました。
共同声明では、「合成AI技術は国やセクター全体でますます重要になっているため、将来的にこれらの技術の機会と課題を捉え、これらの技術が進化するにつれてセキュリティと信頼性を促進し続ける必要があることを認識しています」と述べています。 . 言った。
閣僚グループは、イノベーションの機会を活用しながら、AI ガバナンスを支える 5 つの原則、すなわち法の支配、適正手続き、民主主義、人権の尊重についても合意しました。
近年、人工知能が発達し、世界中の管理者の間で懸念が生じています。
米国の国会議員は、米国の核兵器で人工知能が使用される可能性について警鐘を鳴らしています。 共和党と民主党の議員グループは、核兵器の発射につながる可能性のある方法での AI の使用を禁止する法案に同意しました。 法律に署名した場合、法律は、すべての発射決定に人間が「関与」することを要求する既存のペンタゴンのポリシーを成文化することになります。
AI 主導の核戦争という考えは SF のように聞こえるかもしれませんが、多くの科学者は、それはもはやとてつもないリスクではないと考えています。 スタンフォード大学の人間中心の人工知能研究所が今月初めに発表した世論調査では、AI 研究者の 36% が、この技術が「核災害」を引き起こす可能性があることに同意していることがわかりました。
米国中央軍 (CENTCOM) は先週、Google の元幹部を最初の人工知能アドバイザーとして採用したと発表しました。 国防総省は議会に、来年度の AI 研究への 18 億ドルの資金提供を求めました。
「情熱的なポップカルチャーアホリック。誇り高いベーコンの先駆者。熱心なアナリスト。認定リーダー。」