検索
連載

AI生成コンテンツの大増殖で「ソーシャルメディア」が「ソーシャル」ではなくなる日Social Media Today

AIが生み出すコンテンツをAIが学習しさらなるコンテンツを生成する未来は、私たちが望むものなのだろうか。それは本当に進歩と言えるのだろうか。

PC用表示
Share
Tweet
LINE
Hatena
Social Media Today

 生成AIによるコンテンツが急激に増殖している。より多くのWebマネージャーやパブリッシャーが高度なデジタルツールを介して最適化を極め、生産性を向上させることを目指すつれ、その勢いはさらに増し続けるだろう

 しかし、AIが生成したコンテンツが人間の生み出したコンテンツを凌駕したらどうなるだろうか。全てのコンテンツが生身の人間のコンテンツを模倣したものと、そのコピーばかりになったとき、インターネットには何が起こるのだろうか。

 ソーシャルプラットフォームがデータセットの周囲に壁を築こうとし、スタートアップ企業がLLMのための新たなインプットを求めて奔走している中、多くの人がこの疑問を抱いている。

トレーニングデータへの需要が2年以内に供給を上回る

 例えば、X(旧Twitter)はAPIアクセスの価格を引き上げ、AIプラットフォームがXの投稿を使用するのを制限している。同社が同じ投稿に基づいて独自の「Grok」モデルを開発しているためだ。Metaは以前からAPIアクセスを制限しており、Cambridge Analyticaの事件後はさらに制限を強めている。また、Meta独自のLLM「Llama」を活用するための優れたデータプールを利用している。。

 Googleは最近、RedditのデータをGemini AIシステムに取り入れる契約を結んだ。これは、独自のAIモデルの構築を検討していないソーシャルプラットフォームがインサイトを通じて新たな収益の道を模索する中で、今後さらに増えることが予想されるもう一つの手段である。

 Wall Street Journal(外部リンク/英語)は、貴重なトレーニングデータへの需要が2年以内に供給を上回るとの懸念の中で、OpenAIが一般公開されているYouTubeトランスクリプトでGPT-5モデルをトレーニングすることを検討中だと報じた。

 これは重大な問題だ。多くの新しいAIツールは、事実上あらゆるトピックについて人間のようなテキストを書き出すことができるが、それ自体はまだ「インテリジェンス」ではないからだ。現在のAIモデルは、データベース内の人間が作成した例に基づいて、機械論理と派生的仮定を使用して、単語を次々と順番に配置する。しかし、これらのシステムは自分で考えることができず、出力されるデータの意味を理解する能力もない。それは高度な数学であり、体系的なロジックによって定義されたテキストとビジュアルの形なのだ。

 つまり、LLMとその上に構築されたAIツールは、少なくとも現時点では、人間の頭脳の代わりにはならない。

 これがAI悲観論者が懸念している点でもある。つまり、人間の脳を複製するシステムがひとたび実現すれば、新たなテクノロジーインテリジェンスが私たちを陳腐化し、地球上で支配的な種になる可能性がある。

 AGI(汎用人工知能)が約束するのは、人間の思考方法を複製し、独自の論理や推論を生み出して定義されたタスクを達成するシステムだ。一部の人々は、これが必ずしも現実離れしたものではないと主張するが、現時点で利用可能なシステムは、理論的にAGIが達成できるものにはほど遠い。

 また、AI悲観論者の多くは、人間の脳を再現するシステムが実現すれば、新しいハイテクインテリジェンスが人間に取って代わって地球上の支配的な種になり、人間は時代遅れになる可能性があるという懸念を提起している。

 しかし、ほとんどのAI研究者は、現在のAIの誇大宣伝の波にもかかわらず、私たちが次のブレークスルーに近づいているとは考えていない。

 MetaのチーフAIサイエンティストであるヤン・ルクン氏は最近、Lex Friedmanのポッドキャスト(外部リンク/英語)でこの考え方について語り、次のいくつかの理由からわれわれはまだAGIに近付いていないと指摘した。

 「第一に、知的行動にはいくつかの特徴があるということだ。例えば、世界を理解する能力、物理的世界を理解する能力、物事を記憶して取り出す能力、永続記憶、推論する能力、計画を立てる能力などだ。これらはインテリジェンスシステムや実体、人間、動物に不可欠な4つの特徴だ。LLMはそのどれもできない。あるいは非常に原始的な方法でしか行えない」

 人間が取り込むデータ量は、インターネットから得られる人間の洞察に依存するLLMの制限をはるかに超えているとルクン氏は言う。

 「私たちは言語から得るよりもはるかに多くの情報を見ている。直感とは裏腹に、私たちが学ぶことや知識のほとんどは、言語ではなく現実世界を観察し、相互作用することを通して行われる」

 言い換えれば、対話能力こそが学習の真の鍵であり、言語を複製することではない。この意味で、LLMは高度なオウムであり、人間が言ったことを繰り返して返事をくれるにすぎない。そして、その言語の背後にある人間のさまざまな考慮事項を全て理解できる「脳」は持っていない。

 このことを考えると、これらのツールを「インテリジェンス」と呼ぶのはある意味で誤りであり、前述のAIの陰謀論の一因であると考えられる。現在のツールでは、それを再現するために私たちがどのように相互作用するかに関するデータが必要だ。だが、私たちがツールに質問したときに私たちの意図を理解する適応的なロジックは存在しない。

 この点で、現在のシステムはAGIへの一歩を踏み出しているかどうかさえ疑わしいが、より広範な開発における副次的なものだとは言える。しかし、繰り返しになるが、現在直面している重要な課題は、これらのシステムがますます多くのWebコンテンツを生み出すにつれて、実際のアウトプットが人間らしさを失いつつあることだ。これは今後、重要な変化につながると予想される。

 ソーシャルプラットフォームは高度な剽窃技術を駆使して、人間の個性や洞察力をAIで補強することをますます容易にし、自分を自分ではないものとして表現する。

 それは私たちが望む未来なのだろうか。本当に進歩なのだろうか。

 ある意味で、これらのシステムは発見とプロセスの大幅な進歩を促進するだろうが、システム的な創造の副作用として、デジタルインタラクションから色彩が失われつつある。その結果、私たちは望ましくない状況に置かれてしまう可能性がある。

 要するに、人間同士の交流が希薄化され、私たちはあらゆることに疑問を抱かざるを得ない状況に陥る可能性が高い。そうなると、より多くの人が公開投稿から遠ざかり、既知の信頼できる参加者が集う閉鎖的なプライベートチャットに移行するようになるだろう。

 言い換えれば、現在「AI」と表現されているものを取り入れようとする競争は、最終的には純粋なマイナスになる可能性がある。そして「ソーシャルメディア」の「ソーシャル」な部分が完全に崩壊する可能性がある。

 そうなれば、時間が経つにつれてLLMへの人間のインプットはますます減少し、システムの基盤そのものが侵食されることになるだろう。

© Industry Dive. All rights reserved.

ページトップに戻る