現地時間の2023年5月22日、対話型AI「ChatGPT」や大規模言語モデル「GPT-4」などを開発したAI研究団体のOpenAIが、専門家のスキルレベルを超え、高度な生産活動を行うAI「超知能(Superintelligence)」の登場を予期し、AIの安全な開発を進めるためには国際的な規制機関の立ち上げが必要になると提唱しています。

2023年5月22日にOpenAIはサム・アルトマンCEOやグレッグ・ブロックマン氏、イリヤ・スツケバー氏の連名で、AI研究における国際的な監視組織や規制機関を立ち上げる必要があると提唱しました。

OpenAIは「今後10年以内に、AIシステムはほとんどの分野で専門家のスキルレベルを超え、大企業に匹敵する規模の高度な生産的な活動を行うと考えられます」と述べ、将来的なAIを「超知能」と呼び、人類がこれまで対処してきたさまざまな技術よりも強力になることを想定しています。

また、OpenAIは「超知能」が潜在的なメリットやリスクを抱えているとして、リスクを軽減するための特別な調整が必要であると訴えています。

「超知能」の開発に関して、OpenAIは「安全性を維持しつつ社会との円滑な統合を可能にするために、世界中の主要な政府がプロジェクトを立ち上げ、AIの急激な成長を制限する取り組みを行うべきです」と主張しています。また「個々の企業は開発に対して責任を持つべきです」と述べています。


※以下省略。記事全文はソース元にて

2023年05月23日 13時55分
https://gigazine.net/news/20230523-openai-governance-of-superintelligence/


■引用元記事
Governance of superintelligence
https://openai.com/blog/governance-of-superintelligence

■関連スレ
【AI】チャットGPT開発の米CEO、AIの規制求める 米議会で証言 [oops★]
https://egg.5ch.net/test/read.cgi/scienceplus/1684319792/