Vietnam.vn - Nền tảng quảng bá Việt Nam

AI技術を使用する際のメディア従事者の倫理

Báo Quốc TếBáo Quốc Tế27/10/2024

私たちは 4.0 テクノロジー革命の時代に生きており、人工知能 (AI) は徐々に社会生活の多くの分野で欠かせないものになりつつあります。メディアは、一般の人々と出来事の間の情報の架け橋として、この傾向から外れることはできません。


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
AI技術に関するワークショップに参加したベトナムジャーナリスト協会ジャーナリズム研修センター所長のグエン・ティ・ハイ・ヴァン氏。 (出典:ベトナムジャーナリスト協会)

AIがもたらすメリットを最大限に活用するためには、情報伝達における信頼性と倫理性を確保しながら、AIを効果的に活用できる知識を身につける必要があります。

AIの「熱」から

AI(人工知能)が今日最もホットなキーワードの 1 つであることは明らかです。 2024年9月、Googleで「AI」というキーワードを0.3秒間検索したところ、159億件の結果が記録されました。 「AIツール」というキーワードでは、0.4秒で34億件以上の結果が記録されました。この膨大な数字は、AI と AI ベースのツールが世界中でどれだけ取り上げられ、関心が集まっているかを物語っています。

昨今、メディア業界をはじめ、さまざまな分野で AI ツールがますます登場しています。広く知られている ChatGPT 以外にも、特殊なタスクを処理する、特殊な方向で開発された AI アプリケーションが数多くあります。ここで多くのツールをリストすることは難しくありません。たとえば、Bing AI、Clause、チャットボット タスク グループ用の Zapier Central などです。コンテンツ作成タスクには Jasper、Copy.ai、Anyword を使用します。ビデオ制作および編集タスクには Descript、Wondershare、Runway を使用します。 DALL-E3、Midjourney、クリエイティブな画像タスク向けの安定した拡散。 Murf、オーディオ コンテンツ タスク用の AIVA などがあり、つい最近、大手の Amazon も「創造性を刺激し、より多くの価値をもたらす」ことを目的として、自社開発した AI ツールであるビデオ ジェネレーターとイメージ ジェネレーターを発表しました。

AI ツールは規模や専門性のレベルが大きく異なりますが、テクノロジーには本質的に 2 つの共通点があります。AI ツールは、AI ツールを「トレーニング」するためのアルゴリズムとデータに基づいて開発されます。

メディアにおけるAI利用の倫理的管理

AI ツールがもたらす利便性は否定できません。テクノロジーの更新が急速に進むにつれ、メディア業界における単純なタスクから複雑なタスクまで、あらゆる分野に特化した AI ツールがますます増えていくでしょう。この圧倒的な発展に伴い、メディア業界における AI ツールの開発と使用における倫理的管理の問題について多くの疑問が生じています。 AI ツールのアルゴリズムとデータがコミュニティに有害な方法で操作されたらどうなるでしょうか? AIツールがトレーニングに使用する入力データの知的財産権は誰が所有しますか?誰がその被害レベルを評価するのでしょうか?

同じタスクに対して AI ツールにアクセスできるグループとアクセスできないグループの間に不平等はありますか?特にメディアやソーシャル ネットワークなど、多くの人々に大規模な影響を与える可能性のある機密性の高い領域では、AI ツールによって制御不能な危害が生じる可能性があるという疑問も提起されています。

上記の懸念を認識し、多くの組織、協会、政府、さらには AI ツールを開発している企業や法人が、AI 技術における倫理管理の問題に関連する推奨事項、説明情報、さらに高度な行動規範を発行しています。 2021年に193か国で採択されたユネスコ(国連教育科学文化機関)の「人工知能の倫理に関する宣言」の勧告では、「人工知能(AI)の急速な台頭により、医療診断の支援からソーシャルメディアを通じた人間のつながりの実現、タスクの自動化による労働効率の向上まで、世界中で多くの機会が生まれています」と述べています。

しかし、こうした急速な変化は深刻な倫理的懸念も引き起こします。 AIに関連するこのようなリスクは、既存の不平等を悪化させ始めており、すでに不利な立場にあるグループにさらなる害を及ぼしています…」。そしてそこから、「ユネスコに対し、加盟国を支援するためのツールの開発を要請します。これには、政府がすべての国民のために倫理的かつ責任を持ってAIを導入する準備状況を包括的に把握するためのツールである準備状況評価手法が含まれます。」

UNESCOは、世界的な取り組みの一環として、グローバルAI倫理・ガバナンス・オブザーバトリー(AI倫理・ガバナンス・オブザーバトリー)を設立しました。同オブザーバトリーは、「各国がAIを倫理的かつ責任ある形で導入する準備状況に関する情報を提供します。また、AI倫理・ガバナンス・ラボも運営しており、幅広いAI倫理問題に関する貢献、影響力のある研究、ツールキット、そして前向きな実践を結集しています」と述べています。

UNESCO のような世界的組織に加えて、多くの専門家協会も独自の行動規範の策定に取り組んでいます。たとえば、世界中から何千人もの会員を擁する IABC (国際ビジネスコミュニケーション協会) は、コミュニケーション専門家による AI の倫理的使用に関するガイドラインを発表しました。これは、IABC 倫理規範の AI への関連性について IABC 会員を導くことを目的としています。これらのガイドラインは、AI テクノロジーの進化に伴い、時間の経過とともに更新および補足される可能性があります。この行動規範には、コミュニケーション専門家が遵守すべき具体的なポイントが多数含まれています。たとえば、

「メディア業界への敬意と信頼を育む、ポジティブで透明性の高い体験を生み出すためには、AIリソースは人間主導で活用されなければなりません。AIツールがもたらす専門的機会とリスクについて常に情報を得ることが重要です。情報を正確、客観的、そして公平に伝えることが重要です。AIツールは多くのエラー、不一致、その他の技術的な問題に直面する可能性があります。そのため、AI生成コンテンツが正確で透明性があり、盗作ではないことを人間が独自に検証する必要があります。」

他人の個人情報や機密情報を保護し、許可なくその情報を使用しないこと。人間の関与と、サービス提供を目的とするコミュニティの理解に基づいて AI 出力を評価します。できる限り偏見を排除し、他者の文化的価値観や信念に配慮してください。

第三者の資料、情報、または参照が正確であり、必要な帰属と検証があり、使用が完全にライセンスまたは承認されていることを確認するために、必要な専門的な厳格さで独自の出力を独自に事実確認および検証する必要があります。専門的な成果物において AI の使用を隠したり、偽装したりしないでください。 AI のオープン ソースの性質と、虚偽、誤解を招く、または欺瞞的な情報の入力など、それに関連するセキュリティ上の懸念を認識します...

AI ツールを所有、開発、取引する企業や法人は、AI ツールの詳細を誰よりもよく理解している存在です。彼らは、AI ツールが動作する基礎アルゴリズムと、AI ツールのトレーニングに使用されるデータを知っています。したがって、これらの企業は AI 開発における倫理の原則に関連する情報も提供する必要があります。実際、この問題に関心を持っている企業があります。

Google は、重大な危害のリスクがある分野では AI ツールを開発しないことを約束しており、メリットがリスクを大幅に上回り、適切な安全上の制約が組み込まれていると判断した場合にのみ開発を進めます。人体への傷害を引き起こしたり直接的に促進したりすることを主な目的または展開とする武器またはその他の技術。監視のために情報を収集または使用する技術は、国際的に認められた規範に違反します。広く受け入れられている国際法および人権の原則に違反することを目的としたテクノロジー。

セキュリティと安全性の面では、Googleは次のように誓約しています。「私たちは、意図しない結果によって危害が生じるリスクを回避するため、堅牢なセキュリティと安全性の対策を継続的に開発・実装していきます。AIシステムは適切な注意力を持つように設計し、AI安全性研究におけるベストプラクティスに従って開発するよう努めます。AI技術の開発と利用には、Googleのプライバシー原則を組み込みます。通知と同意の機会を提供し、プライバシー保護アーキテクチャを推進し、データ利用に関する適切な透明性と管理を提供します。」

Googleと同様に、MicrosoftもAIの原則とアプローチに関する声明を発表し、「当社は、AIシステムが責任を持って、人々の信頼を確保する方法で開発されることに尽力しています...」と強調しました。さらに、AmazonやOpenAIなど、AIツールの開発に多額の投資を行っている大手テクノロジー企業も、何らかの形で独自の取り組みを行っています。

歴史上、テクノロジーには肯定的な要素と否定的な要素が伴うという二面性があることを実証した例は数多くあります。結局のところ、AIは非常に「ハイテク」な技術プラットフォームではありますが、AIは依然として人間が開発、収集したアルゴリズムとデータに基づいています。同時に、ほとんどの AI 製品は、それを所有する企業のビジネス プランの一部となっています。

したがって、技術面だけでなく、製品開発および管理チームからも潜在的なリスクが常に存在します。ここで問題となるのは、AI ツールがコミュニティの社会経済レベルにさえも大衆に及ぼす潜在的影響の規模が極めて大きいことです。 AI技術の使用時に倫理的管理にタイムリーな配慮がなされていることは、国連などの大規模な国際組織、政府、業界団体、そして何よりも技術開発部門の参加によって、歓迎すべき兆候となっています。

しかし、AIツールのリストが継続的に新しいバージョンをリリースし、それぞれが以前のものよりも洗練され複雑になっているのと同様に、コード、原則、ガイドラインもタイムリーに更新および補足する必要があり、さらに、AIテクノロジー全般、特にメディア従事者における倫理的管理に準拠する能力が最高の効率を達成できるフレームワーク内で、製品開発ユニットとユーザーを防止、制限、および制御するために積極的に取り組む必要があります。


[広告2]
ソース

コメント (0)

No data
No data

同じトピック

同じカテゴリー

餌で仲間を誘惑する鳥に魅了される
夏にサパへ旅行するときには何を準備する必要がありますか?
ビンディン省ヴィロン岬の野生の美しさと神秘的な物語
コミュニティツーリズムがタムザンラグーンで新たな生活リズムとなるとき

同じ著者

遺産

仕事

No videos available

ニュース

政治体制

地元

製品