3月31日、米国で提供される商用AI製品の監視や評価を行う非営利研究組織、Center for Artificial Intelligence and Digital Policy(CAIDP)は、OpenAIのGPT-4が、連邦取引委員会(FTC)の決めた安全性の基準を満たしていないとし、開発の一時停止を要請しました。
4月4日、ホワイトハウスで、ジョー・バイデン米大統領は、科学技術諮問委員会と会談した席で、「人工知能(AI)が危険かどうかはまだ分からないとしながらも、テクノロジー企業には製品を公開する前に安全性を確認する責任がある」と強調したばかりです。
FTCへの訴状の内容は「OpenAIがプライバシーと公共の安全に対するリスクのある製品GPT-4を出力内容や再現の検証もできていないまま、独立した中立機関による安全評価も行わず、消費者市場向けにリリースした」と訴えている他、米国政府が正式に承認したAIのガバナンスに関する規範、ユニバーサルガイドライン(OECDやUNESCO、EUのAI倫理原則等)に則った監査をFTC自身が行っていない旨、指摘しています。(なお、OpenAIは、GPT-4がもたらす潜在的なリスクについては、外部の専門家(AI Alignment)に評価させたと述べています。)
目次