このモデルは推論し、複雑な数学的問題を解決し、科学的研究の疑問に答える能力があり、人間のような認知能力を持つ機械である汎用人工知能(AGI)の開発に向けた重要な前進と考えられている。
OpenAIは、O1モデルの高度な機能を考慮して、これを一般に公開することについては特に「慎重」だったと述べた。写真: ゲッティイメージズ
フィナンシャル・タイムズによると、OpenAIは化学・生物・放射線・核兵器(CBRN)に関連する問題に関して、これらの新しいモデルのリスクを「中程度」と評価しており、これは同社がこれまで評価した中で最も高いものとなっている。これは、この技術によって専門家の生物兵器製造能力が「大幅に向上」したことを意味する。
専門家によると、詳細な推論が可能な AI ソフトウェアは、特に悪意のある人物の手に渡ると、悪用されるリスクが高まる可能性がある。
モントリオール大学の世界的AI科学者であるヨシュア・ベンジオ教授は、この中程度のリスクレベルにより、カリフォルニア州で議論されている法案SB1047のようなAI規制の制定の緊急性が増すと強調した。この法案は、AIメーカーに対し、そのモデルが生物兵器の開発に悪用されるリスクを軽減するための措置を講じることを義務付けるものだ。
The Vergeによると、Google、Meta、Anthropicなどのテクノロジー企業が高度なAIシステムの構築と改善に競い合っているため、AIモデルのセキュリティと安全性が大きな懸念事項となっている。
これらのシステムは、人間がタスクを完了するのを助け、さまざまな分野で支援を提供する上で大きなメリットをもたらす可能性がありますが、安全性と社会的責任の課題も生じます。
カオ・フォン(FT、ロイター、The Vergeによる)
[広告2]
出典: https://www.congluan.vn/openai-thau-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
コメント (0)