アルファベット(グーグルの親会社)の株式1億3500万ドルを保有する株主、トリリウム・アセット・マネジメントは、2023年の年次総会でAI(人工知能)とアルゴリズムの透明性の問題を提起した。同ファンドの代表者は、アルゴリズムは司法や医療などの一部の分野で危険な結果をもたらす可能性があり、「この技術が社会にとって安全かどうかを知るためには」説明責任と透明性が必要だと主張した。
同ファンドがアルファベットに透明性を求めるのは今回が初めてではない。 2023年初頭にOpenAIのChatGPT人工知能が爆発的に普及する前に、Trilliumも同様の要請を行った。しかし、Google はどちらの場合も上記の要求に応じることを拒否しました。
Googleは悪意のある人物から身を守るためにアルゴリズムとAIに関する秘密を一部保持している
「検索大手」によると、アルゴリズムに関する情報はウェブサイト上で公開されており、YouTubeがユーザーに提案するコンテンツをどのように整理するかについての透明性も確保されているという。しかし、同社の事業の基盤となっている独自のアルゴリズムは公開できない。
「アルゴリズムの透明性は、悪意のある人物によって情報が悪用され、ユーザーのプライバシーが侵害され、機密の商業情報が漏洩するリスクも考慮する必要がある」とグーグルは説明した。
グーグルのサンダー・ピチャイ最高経営責任者(CEO)は、AIは医療を含む生活のあらゆる分野に影響を与えるだろうと述べ、同社がこの技術をより有用なものにするために「責任を持って」人工知能に取り組んでいると断言した。
同社の声明とトリリウム基金からの要請は、急速なAI開発とユーザーおよびテクノロジー業界の懸念を背景に行われた。昨年5月、先駆的なAIエンジニアであるジェフリー・ヒントン氏がGoogleを退社し、AIベースのチャットボットの危険性について警告した。
[広告2]
ソースリンク
コメント (0)