準備チーム
MIT AI 教授アレクサンダー マドリーのリーダーシップの下、OpenAI は「Preparedness」と呼ばれる専門チームを設立しました。 AI 研究者、コンピューター科学者、国家安全保障の専門家、政策専門家で構成されるこのチームは、OpenAI のテクノロジーを継続的に監視し、テストします。 AI システムが潜在的に危険な動作を示した場合、企業を特定して警告する上で重要な役割を果たします。 Preparedness チームは、AI への偏ったアルゴリズムの埋め込みなどの問題の軽減に重点を置く OpenAI の既存の Safety Systems チームと、AI が人間の知性を超えるという仮想シナリオで AI が人類に害を及ぼすのを防ぐことを調査する Superalignment チームと並行して活動しています。
実存的脅威に関する議論
今年初め、OpenAI、Google、Microsoft のリーダーを含む AI 業界の著名人が、AI に伴う実存的リスクをパンデミックや核兵器に例えて強調しました。しかし、一部の研究者は、仮想的な破滅的シナリオにそのように集中することは、AI テクノロジーの現在の有害な結果から注意をそらすことになると主張しています。ますます多くの AI ビジネス リーダーが技術開発の推進を主張し、リスクは過大評価されており、この技術は収益性を高めるだけでなく社会に多大な利益をもたらす可能性があると主張しています。
バランスの取れたアプローチ
OpenAI の CEO、サム アルトマンは、AI に内在する長期的なリスクを認識していますが、現在の課題に対処する重要性を強調しています。アルトマン氏は、中小企業に不当に負担を与え、急速に進化する AI 環境での競争力を妨げる規制に反対しています。
専門家の協力によるリスクの軽減
著名な AI 研究者であり、MIT の展開可能な機械学習センターの所長であるアレクサンダー マドリ氏は、今年 OpenAI に加わりました。最近の経営陣の交代にもかかわらず、マドリー氏は AI リスクの調査に対する同社の取り組みに自信を示しています。 OpenAI は、AI リスクに関する包括的な研究を促進するために、国家核安全保障局のような組織と積極的に議論を行っています。さらに、OpenAI は、外部の「適格な独立した第三者」がそのテクノロジーを評価し、オンラインで入手できる標準的な調査を超えた厳格なテストを実施できるようにすることを約束します。マドリー氏は、AI 開発が加速しているのか減速しているのかを二極化する視点に言及する際に、そのような議論が過度に単純化されていることを強調し、AI の進歩に対してより微妙なアプローチを取ることを主張しています。