モトリーフール米国本社、2023年7月25日 投稿記事より
主なポイント
・米国のAI開発企業トップ7社が7月21日にホワイトハウスに集合
・AIの安全性ガイドラインを定める合意に自主的に署名
・最終的にAIを規制する政府の計画における最初の1歩であり、業界再編につながる可能性がある
大手ハイテク企業とAIの主力スタートアップ企業がワシントンDCに集まり、AI利用のガイドラインについて協議
企業は人工知能(AI)の力について、ようやく理解し始めたところです。AIは効率化の原動力であり、大きな価値を生み出す存在に急速になりつつあります。
一方で、AIはリスクのない技術ではありません。特に、規制がまだ整備されていないこともあり、開発者は可能性の限界に挑戦していると言っても過言ではありません。
米連邦取引委員会(FTC)は先週、オープンAIに対し、ChatGPTの回答において一部の消費者を中傷する可能性があるとして、同社のデータ取り扱い方法に関する調査に乗り出しました。確かにその通りです。AIは自らの力で、法を犯しているかもしれません。
安全性は米国政府にとって極めて重要な課題であり、責任あるAI開発者は、AI技術に対する制御が利かなくなることから業界を守るために、明確な規則とガイドラインの策定を求めてきました。7月21日に行われたのは、このプロセスにおける最初の1歩であり、以下の7社がワシントンDCに集まり、AIをめぐる安全性協定に署名しました。
マイクロソフト[MSFT]
アマゾン・ドットコム[AMZN]
メタ・プラットフォームズ[META]
アルファベット[GOOGL]
オープンAI
アンソロピック
インフレクションAI
合意は主に3つの目標達成を目指している
7社はそれぞれ、何らかの形で大規模言語モデルの開発に取り組んでいます。大規模言語モデルとはAIの一種で、一般的な最終形は、人々が文章、画像、動画、さらにはコンピューターコードまでを生成するのに使うオンラインチャットボットです。今回の安全性協定は当事者によって自主的に締結されたものですが、米国政府にとっては、この種のAIに関連する潜在的リスクを抑制するための、明確なガイドラインを設定する上で初の試みです。
合意は主に3つの領域に分かれています。
発売前製品の安全性確認
7社は社外の専門家に依頼し、製品のアップデートが広くリリースされる前にテストと分析を行うことで合意しました。また、各社は政府、一般社会、学会とデータを共有します。このデータは、安全機能を侵害しようとする悪意のある試みに関するもので、業界は潜在的な脅威について協力することができます。
セキュリティを第一に考えたシステムの構築
上記に加え、各社はリリース前のモデルウェイトを保護するため、サイバーセキュリティに投資します。モデルウェイトとは、AIの学習に使われるパラメーターで、例えば、与えられたインプットに対するチャットボットのアウトプットを決定します。各社はまた、第3者が脆弱性を発見し、報告できるようにします。これにより、侵害や攻撃の程度を隠したり、ごまかしたりすることができなくなります。
国民の信頼
各社は、画像や動画に透かしを入れるなど、コンテンツがAIによって作成されたものであることを、エンドユーザーに分かるようにすることで合意しました。また、開発者は、アウトプットに含まれるモデルのバイアスを報告し、AIがもたらす可能性のある社会的危害に関する研究に資金を投じます。最後に、各社は自社のAIモデルを、ヘルスケアへの取り組みや気候変動対策といった、社会的利益のために活用することで合意しました。
これらのガイドラインは、未公開企業であるオープンAI、アンソロピック、インフレクションAIにとって特に重要です。マイクロソフト、メタ・プラットフォームズ、アマゾン・ドットコム、アルファベットは上場企業であるため、既に厳格な報告が義務付けられ、企業活動は多くの投資家によって常に監視されています。
AIに関する安全性協定は、これらの企業にどのような意味があるのか
AIの革新は2023年に猛スピードで進みましたが、規制がなかったことも後押ししました。厳格な規則があったらここまでたどり着かなかったとは言いませんが、もう少し時間がかかったかもしれません。なぜなら、企業はさまざまな手続きをクリアするために弁護士やアドバイザーに相談し、規則の範囲内にいるか確認しなければならず、開発スケジュールが長引いていたかもしれないからです。
今回の合意を受けて、業界はそうした環境に向かっているかもしれません。それによって、主力AI企業による技術の進歩が妨げられることはないでしょうが、新製品のリリース前に社外の専門家に相談しなければならないことを考えると、新製品が消費者の手に届くまでにはるかに長い時間がかかる可能性があります。
さらに、学界とデータを共有することは、例えば、安全性に対する見解が開発者と学界で大きく異なるとか、また将来的に政府が法案策定について助言を求めた場合に慎重となり過ぎるなど、予想外の結果をもたらす可能性があります。
オープンAIに対して先日始まったFTCの調査は、他のすべてのAI企業、特にオープンAIへの主要な出資企業であるマイクロソフトに対する警告とも考えられます。FTCは明らかに、AIが消費者に有害となる可能性を懸念しており、それを最小限に抑えるために、どのような対策が取られているか知りたがっています。
調査結果を推測するのは時期尚早ですが、開発者はこれを警告として受け止め、特定の個人の名誉を傷つけるような回答を排除するように、それぞれのAIモデルを微調整するべきでしょう。さらに、FTCが重視するデータセキュリティに、集中的に投資するべきです。
AIをめぐる今回の安全性協定は、企業が現行の消費者関連法(ひいてはFTC)に抵触しないようにするのに大きな役割を果たすとみられます。しかし、業界は、新製品の発売までに長い時間がかかる状況に備えておくのが良いと思われます。長期的に見れば、これは開発者にも消費者にも、ほぼ間違いなく利益をもたらすはずです。
免責事項と開示事項 記事は一般的な情報提供のみを目的としたものであり、投資家に対する投資アドバイスではありません。アルファベットの幹部であるSuzanne Freyは、モトリーフール米国本社の取締役会メンバーです。フェイスブックの元市場開発担当ディレクター兼スポークスマンであり、メタ・プラットフォームズのMark Zuckerberg CEOの姉であるRandi Zuckerbergは、モトリーフール米国本社の取締役会メンバーです。アマゾン・ドットコムの子会社であるホールフーズ・マーケットの元CEO、John Mackeyは、モトリーフール米国本社の取締役会メンバーです。元記事の筆者Anthony Di Pizioは、記載されているどの銘柄のポジションも保有していません。モトリーフール米国本社はアルファベット、アマゾン・ドットコム、メタ・プラットフォームズ、マイクロソフトの株式を保有し、推奨しています。モトリーフールは情報開示方針を定めています。