新しいチャットボットは世界を変える可能性があります。 彼らを信頼できますか?
ホームページホームページ > ブログ > 新しいチャットボットは世界を変える可能性があります。 彼らを信頼できますか?

新しいチャットボットは世界を変える可能性があります。 彼らを信頼できますか?

Aug 21, 2023

広告

による支援

Siri、Google 検索、オンライン マーケティング、そしてお子様の宿題は決して同じものではありません。 次に、誤った情報の問題があります。

友達にストーリーを送信する

定期購読者にはギフト記事が 10 件あります毎月与えること。 あなたが共有したものは誰でも読むことができます。

ケイド・メッツ著

Cade Metz は、チャットボットを構築する科学者やチャットボットを使用する人々との数か月にわたる会話に基づいてこの記事を書きました。

人工知能研究者のジェレミー・ハワード氏は今月、ChatGPTと呼ばれるオンラインチャットボットを7歳の娘に導入した。 これは、世界で最も野心的な AI ラボの 1 つである OpenAI によって数日前にリリースされていました。

彼は彼女に、実験中のチャットボットに思いついたことを何でも聞いてくださいと言いました。 彼女は、三角法が何に役立つのか、ブラックホールはどこから来るのか、そしてなぜニワトリが卵を温めるのかを尋ねました。 毎回、明瞭で句読点のはっきりした散文で答えてくれました。 彼女が空中に投げられたボールの軌道を予測できるコンピューター プログラムを求めたところ、それも与えられました。

それから数日間、ハワード氏(データサイエンティスト兼教授であり、その研究がChatGPTや同様のテクノロジーの作成に影響を与えた人物)は、チャットボットを新しい種類の個人教師として見るようになった。 それは彼の娘に数学、科学、英語を教えることができ、もちろん他のいくつかの重要なレッスンも教えることができます。 その中で最も重要なのは、言われたことをすべて信じてはいけないということです。

「彼女がこのように学んでいくのを見るのはとてもうれしいことです」と彼は言いました。 「しかし、私は彼女にも言いました。それがあなたに与えるものすべてを信頼しないでください。間違いを犯す可能性があります。」

OpenAI は、より高度なチャットボットの構築に取り組んでいる多くの企業、学術研究機関、独立研究者の 1 つです。 これらのシステムは人間のように正確にチャットすることはできませんが、多くの場合、チャットしているように見えます。 また、人間には決して不可能な速度で情報を取得し、再パッケージ化することもできます。 これらは、ユーザーが探しているものをよりよく理解し、それを提供してくれる、Siri や Alexa のようなデジタル アシスタントと考えることができます。

100 万人以上が使用している ChatGPT のリリース後、多くの専門家は、これらの新しいチャットボットが Google や Bing などのインターネット検索エンジンを再発明、あるいは置き換える準備が整っていると信じています。

青いリンクの長いリストではなく、簡潔な文章で情報を提供できます。 彼らは人々が理解できる方法で概念を説明します。 また、事実を伝えながら、ビジネス プラン、定期レポートのトピック、その他の新しいアイデアをゼロから生成することもできます。

シリコンバレーの企業ボックスの最高経営責任者であり、これらのチャットボットが社会をどのように変えるかを模索している多くの幹部の一人であるアーロン・リービー氏は、「人間が理解できる方法であらゆる質問に答えることができるコンピューターが登場した」と語った。技術的な風景。 「さまざまなコンテキストからアイデアを推定して取得し、それらを統合することができます。」

新しいチャットボットは、完全な自信を持ってこれを実行します。 しかし、彼らは常に真実を語るわけではありません。 場合によっては、単純な算術でも失敗することもあります。 彼らは事実とフィクションを混ぜ合わせています。 そして、それらが改良され続けるにつれて、人々はそれらを使用して虚偽を生成し、広める可能性があります。

Google は最近、LaMDA (対話アプリケーションの言語モデル) と呼ばれる、会話に特化したシステムを構築しました。 今春、グーグルのエンジニアは、グーグルには知覚力があると主張した。 実際はそうではありませんでしたが、大衆の想像力をかき立てました。

バージニア州アーリントンのデータサイエンティストであるアーロン・マーゴリス氏は、実験的な Google アプリである AI Test Kitchen を通じて LaMDA の使用を許可された Google 社外の限られた数の人々の 1 人でした。 彼は、その自由な会話の才能に常に驚かされていました。 それは彼を楽しませ続けた。 しかし、インターネットに投稿された膨大な量の情報から訓練されたシステムから予想されるように、それは少し空想的なものになる可能性があると同氏は警告した。

「それがあなたに与えるものは、アーロン・ソーキンの映画のようなものです」と彼は言いました。 ソーキン氏は映画「ソーシャル・ネットワーク」を執筆したが、この映画はフェイスブックの起源に関する真実を誇張しているとしてしばしば批判された。 「それの一部は真実ですが、一部は真実ではありません。」

彼は最近、LaMDA と ChatGPT の両方に、あたかもマーク・トウェインであるかのようにチャットするよう依頼しました。 彼がLaMDAに尋ねたところ、すぐにトウェインとリーバイ・ストラウスの出会いについての記述があり、作家は1800年代半ばにサンフランシスコに住んでいたときにブルージーンズの大御所で働いていたと述べた。 それは本当のようでした。 しかし、そうではありませんでした。 トウェインとストラウスは同時期にサンフランシスコに住んでいましたが、一緒に仕事をすることはありませんでした。

科学者はその問題を「幻覚」と呼んでいます。 優れたストーリーテラーと同じように、チャットボットは、それが真実かどうかに関係なく、学んだことを取り入れて、それを新しいものに再構築する方法を持っています。

LaMDA は、人工知能の研究者がニューラル ネットワークと呼んでいるもので、脳内のニューロンのネットワークを大まかにモデル化した数学システムです。 これは、Google 翻訳などのサービスでフランス語と英語の間で翻訳したり、自動運転車が街路を走行するときに歩行者を識別したりするのと同じテクノロジーです。

ニューラル ネットワークはデータを分析することでスキルを学習します。 たとえば、何千枚もの猫の写真からパターンを特定することで、猫を認識できるようになります。

5 年前、Google や OpenAI などの研究所の研究者は、書籍、ウィキペディアの記事、ニュース記事、オンライン チャット ログなどの膨大な量のデジタル テキストを分析するニューラル ネットワークの設計を開始しました。 科学者はそれらを「大規模言語モデル」と呼んでいます。 これらのシステムは、人々が単語、数字、記号を結び付ける方法における何十億もの異なるパターンを識別し、独自にテキストを生成することを学習しました。

それらの言語を生成する能力は、それらを構築した研究者の多くを含む、この分野の多くの研究者を驚かせました。 このテクノロジーは、人々が書いたものを模倣し、異なる概念を組み合わせることができます。 ジェリーがバブル ソート アルゴリズムと呼ばれる難解な数学的手法を学ぶ「となりのとなりのサインフェルド」のシーンを書くように依頼することもできます。そして、実際にそうなります。

ChatGPT を使用して、OpenAI はテクノロジーの改良に取り組んできました。 Google の LaMDA のように自由な会話ができるわけではありません。 Siri、Alexa、その他のデジタル アシスタントのように動作するように設計されました。 LaMDA と同様に、ChatGPT はインターネットから厳選されたデジタル テキストの海でトレーニングされました。

人々がシステムをテストすると、その反応を評価するよう求められました。 彼らは説得力がありましたか? 役に立ちましたか? それらは真実でしたか? 次に、強化学習と呼ばれる手法を通じて、評価を使用してシステムを磨き、何を行うか、何を行わないかをより慎重に定義しました。

OpenAIの最高技術責任者であるミラ・ムラティ氏は、「これにより、モデルがユーザーと対話し、それが間違っていることを認めることができる段階に到達することができる」と述べた。 「不適切なものを拒否したり、間違った質問や前提に異議を唱えたりすることができます。」

その方法は完璧ではありませんでした。 OpenAIはChatGPTの利用者に対し、「時折誤った情報を生成する可能性がある」「有害な指示や偏ったコンテンツを生成する」と警告した。 しかし、同社はこの技術の改良を続ける予定であり、それがまだ研究プロジェクトであることを使用者に思い出させている。

Google、Meta、その他の企業も精度の問題に取り組んでいます。 Meta は最近、同社のチャットボット「Gaoptica」のオンライン プレビューを、不正確で偏った情報を繰り返し生成したため削除しました。

専門家らは、企業がこれらのテクノロジーの運命をコントロールすることはできないと警告している。 ChatGPT、LaMDA、Gaoptica などのシステムは、長年にわたり自由に流通してきたアイデア、研究論文、コンピューター コードに基づいています。

Google や OpenAI などの企業は、他の企業よりも速いスピードでテクノロジーを推進できます。 しかし、彼らの最新技術は複製され、広く配布されています。 人々がこれらのシステムを利用して誤った情報を広めることを防ぐことはできません。

ハワード氏は、娘がインターネットで読んだものすべてを信用してはいけないことを学んでほしいと願ったのと同じように、社会も同じ教訓を学ぶことを望んでいた。

「何百万ものこれらのボットを人間のように見せて、特定の観点を人々に納得させるように設計された会話を行うようにプログラムすることができます」と彼は言いました。 「私はこのことについて何年も警告してきました。今や、これが起こるのを待っているだけであることは明らかです。」

Cade Metz はテクノロジー レポーターであり、『Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World』の著者です。 人工知能、自動運転車、ロボット工学、仮想現実、その他の新興分野をカバーしています。 @cademetz

広告

友達にストーリーを送信する 10 件のギフト記事