生成 AI ChatGPT を使用している人々は、この AI の初歩的な間違いを本能的に犯しており、AI 倫理と AI 法の厄介なレシピとなっています
ホームページホームページ > ニュース > 生成 AI ChatGPT を使用している人々は、この AI の初歩的な間違いを本能的に犯しており、AI 倫理と AI 法の厄介なレシピとなっています

生成 AI ChatGPT を使用している人々は、この AI の初歩的な間違いを本能的に犯しており、AI 倫理と AI 法の厄介なレシピとなっています

Sep 20, 2023

... [+] ChatGPT などの最新の生成 AI を使用する場合、会話のオーバーシュートもアンダーシュートも行わないでください。

習慣の力。

きっと経験したことがあると思います。

習慣の力に関する基本的な概念は、何かを何度も繰り返したことに多少無分別に依存して物事を行う場合があるということです。 その習慣はあなたの精神的能力を引き継ぎ、おそらく物事を新たに見たり実行したりする能力を無効にします。

一方で、習慣の力は非常に役立つと主張することもできます。 目の前の特定の問題についてあからさまに考えようとして頭の働きを消耗するのではなく、あまり精神的な負担をかけずにタスクを完了できるようです。 通常、これを、あたかも心を調整することは、考慮された公理的な反応を実行するための肉体に似ているかのように、記憶の筋肉を使用することであると言及する評論家がいます。

習慣の力に依存することの重大な欠点は、物事をより良い方法で行う機会を逃したり、新たな機会を活用できなかったりする可能性があることです。 あなたは自分のやり方に固執しており、自分にとって役立つかもしれない実行可能な代替案を悪用したり活用したりしません。 それは典型的な泥の中の棒です(おそらく、この古くからのフレーズは、しっかりと頑固に泥の中に突き刺さった棒としてより完全に表現されるべきです)。

今日のコラムでは、人工知能 (AI) の使用に関して、多くの人が習慣の力によってどのようにアンダーシュートを引き起こしているかを示します。

特定のコンテキストには、今日では生成 AI と呼ばれている AI の使用が含まれます。私は、ChatGPT と呼ばれる、広く普及し、大いに注目を集めている AI アプリを使用して、習慣の側面の力を紹介します。 ChatGPT を示すために実際の入力と出力を提供し、料理レシピを考案するという一見無害なタスクをカバーすることで、探索を楽しんでいただけると思います。 作業自体は比較的普通の雑務です。 それでもなお、AI の新人の作法ともいえる、根深い習慣の力に支配された行動を人々がどのようにして不注意に行っているかについて、非常に有益な洞察を得ることができます。

このディスカッションが終わるまでに、あなたは AI 初心者と同じ間違いを犯すことはなくなるでしょう。

より大きなスケールで見ると、これらすべては AI 倫理と AI 法に関連する極めて重要な意味を持ちます。 ほんの数例を挙げると、ここのリンクとここのリンクにある、最新の AI 倫理と AI 法に関する広範かつ継続的な報道に興味があるかもしれません。 AI 倫理と AI 法に対する冷静かつ賢明な注意には、AI の良い利用と、AI の悪い利用の回避または少なくとも緩和を含む、AI の利用方法が含まれます。

最近、AI の現状と今後の方向性について話題になると、生成 AI として知られる特定のタイプの AI がソーシャル メディアやニュースを独占しています。 これは、OpenAI という組織が開発した生成 AI を採用した AI アプリ、ChatGPT アプリのリリースがきっかけでした。

ChatGPT は汎用 AI インタラクティブ システムであり、本質的には一見無害な一般的なチャットボットですが、多くの人が完全に不意を突く形で人々によって積極的かつ熱心に使用されています。 たとえば、顕著な懸念は、ChatGPT や他の類似の生成 AI アプリによって、学生が自分の書いたエッセイでカンニングすることができ、おそらく学生がそうすることを奨励または駆り立てられることさえあるということです。 怠け者だったり、小論文を書く時間やスキルがなくて自分には追い込まれていると感じている学生は、すぐに生成 AI アプリを呼び出して小論文を書くかもしれません。 これについては後ほど詳しく説明します。 ChatGPT がどのようにしてこれを可能にするのか、また教師が何をすべきなのかについての私の詳細な分析については、ここのリンクを参照してください。

ChatGPT と生成 AI に関する急速に拡大する騒動に特に興味がある場合は、有益で魅力的だと思われるかもしれない暴露シリーズをコラムで行っています。

ここのリンクにある私の集中的な分析に従って、生成 AI と ChatGPT がメンタルヘルスに関するアドバイスにどのように使用されているかを確認することにしました。これは厄介な傾向です。 生成 AI や ChatGPT の今後の進歩など、2023 年を通じて AI に関して何が展開される可能性があるかを知りたい場合は、ここのリンクにある私の 2023 年の予測の包括的なリストを読んでください。 また、ここのリンクにある ChatGPT と生成 AI を含むサンタ関連のコンテキストに関連する季節風味の皮肉な検査も行いました。 不気味なメモですが、一部の陰謀家は、生成 AI と ChatGPT を使用して、詐欺メールを生成したり、マルウェアのプログラミング コードを作成したりするなどの不正行為を行う方法を見つけ出しました。ここのリンクで私の分析を参照してください。

ここでは、Generative AI と ChatGPT に関する基礎について説明するので、しばらくお待ちください。そうすれば、全体的な情報が得られます。

一方、ソーシャル メディアを見てみると、ChatGPT と生成 AI がスライスされたパン以来の最高のものであると主張している人々がいます。 これは実際には感覚を持った AI であると示唆する人もいます (いいえ、彼らは間違っています!)。 人々が先走りしているのではないかと心配する人もいます。 彼らは見たいものを見ています。 彼らはピカピカの新しいおもちゃを取り上げ、なぜ私たちがキャッチーな新しいものを手に入れることができないのかを正確に示しました。

AI 倫理と AI 法の関係者は、この急成長する傾向を特に懸念していますが、それは当然のことです。

今日の AI が実際にできることを超えている人もいる、と丁寧に言うかもしれません。 彼らは、AI には私たちがまだ達成できていない機能があると想定しています。 それは残念ですね。 さらに悪いことに、AI には知覚力がある、または人間と同じように行動できるという思い込みのせいで、自分自身や他の人が悲惨な状況に陥る可能性があります。 AIを擬人化しないでください。 そうすると、AIが実行できないことをAIに期待するという、厄介で陰惨な依存の罠にはまってしまいます。

その極端さの対極には、今日の AI ができることを時には下回る傾向があります。

はい、人々は生成 AI や ChatGPT などの AI を使用していますが、これらはある意味、現代の AI に関連する完全なエクスペリエンスを達成できていない、または十分に得られていません。 これは多くの場合、この種のアンダーシュートを行う人の習慣的な考え方によるものです。 アンダーシュートが問題かどうかについては議論することができます。 AI は実際よりも限定的であると想定したほうが安全かもしれません。 確かに、オーバーシュートには最大の危険があります。 しかし、私たちは AI を最大限に活用すべきです。 AI の利点を最大限に活用すると、大きなメリットが得られる可能性があります。 AI の能力を損なうと、潜在的な機会と利益を逃すことになります。

AI、特に ChatGPT をどのようにアンダーシュートしている人がいるかを検討する前に、習慣の力の問題についてさらに背景を追加したいと思います。

それでは、生成 AI と ChatGPT の説明に戻ってみましょう。

習慣の力の根底にある力

私は習慣の力の強力な影響について説明するために、スマートフォンの初期の話をよく引用します。

携帯電話が最初に普及したとき、人々は主に電話をかけるために携帯電話を使用しました。 スマートフォンの登場に伴い、カメラ機能が追加されました。 人々が携帯電話を使って写真を撮ることに慣れていなかったことを覚えているか、聞いたことがあるかもしれません。

写真を撮りたい人は、反射的に従来のカメラを求め、カメラ付き携帯電話の使用を放棄します。 従来のカメラを家に置き忘れて、思い立った瞬間にスナップショットが撮れずに悩んでいる人を見ると、ほとんど笑えるほどだった。 手に持った携帯電話でそれができることを思い出した後、彼らは恥ずかしそうに貴重なショットを撮りました。

スマートフォンにビデオ録画機能が追加されたときも、同じサイクルが繰り返されました。 これは最初の例とは少し異なりました。 人々は携帯電話を使用してビデオを撮影できることを認識しているでしょうが、撮影されている人々は、あたかも携帯電話が静止画のスナップショットのみを撮影しているかのように振る舞っていました。 繰り返しになりますが、写真を撮るために人々のグループが一斉に固まるのに、ビデオ録画機能付きのスマートフォンを持っている人は腕を振って生きた行動をとるように懇願しなければならないのは、ほとんど笑いものでした。

前者の場合、スマートフォンを使って写真を撮ることに慣れていない一部の人々は、習慣の力によって思考が曇ったと言えます。つまり、習慣の力によって、写真は従来のカメラを使用して撮影する必要があると思い込んでいたのです。 2 番目のケースでは、人々はビデオは独特の手持ち式ビデオレコーダーでしか撮影できない、スマートフォンでは静止画しか撮れないという強い習慣を持っていました。

これにより、習慣の力がどのようにして生じるのかについての明らかな背景が確立されると私は信じています。

AI の領域にギアを切り替えます。

生成 AI と ChatGPT に関して言えば、このタイプの AI の重要な要素は、AI が会話しているかのように扱われることになっているということです。 おそらく、自宅や職場でチャットボットや同様のテクノロジーを使用したことがあるでしょう。 Alexa や Siri を使用したことがある場合は、意識したかどうかに関係なく、会話指向の AI システムを使用したことになります。

会話型 AI の目的は、人間が AI アプリと会話できるようにすることです。 人間は、他の人間と行うのと同じ会話能力を使用できる必要があります。 まあ、それが野心的な目標です。 すべての会話型 AI がそれほど優れているわけではありません。 そのレベルの流暢さを実現するには、まだ乗り越えなければならないハードルがあります。

あなたは間違いなく Alexa や Siri を使用したことがありますが、それらの AI 会話アプリが時には非常に不足していることに気づきました。 たとえば、あなたは流暢な英語で何かを言い、AI があなたの指摘の要点を理解してくれることを期待します。 残念なことに、これらの AI システムは、コマンドやリクエストの性質を理解していないことを示すような反応を示すことがよくあります。 これはイライラすることもあります。 これにはイライラするかもしれません。

最終的には、全力で会話をする努力をいくらか諦めるか、諦めるようになります。 AI の会話能力は、AI が十分に機能していないために制限されていることが判明しました。 人々は、これらの流暢な会話が可能とされる AI アプリと対話するには、自分の発話を「鈍化」する必要があることに徐々に気づき始めています。 AI アプリに話しかけたり、短縮されたまったく初歩的な文でテキスト メッセージを送信したりし始めます。 物事を短く丁寧にしておけば、AI が物事を正しく理解する可能性が高まることが期待されています。

おそらく、この種の弧を経験する人々を見たことがあるでしょう。 AI 会話アプリを使用するとき、彼らは熱意を持って使い始めます。 AIが発言内容の半分以上の確率で完全に的を外していることに気づくと、人間は極度に落ち込んでしまいます。 彼らは AI を使い続けたいと考えていますが、人間の流暢な言語能力を利用しても無駄であると認識しています。 最終的には、各人が自分の信じる速記をでっち上げ、AI アプリをなだめて、人間が発した指示を AI に引き受けさせることを期待します。

ああ、強き者はいかに滅びるかということは、宣伝されている AI 会話アプリは、宣言されている性癖とはかけ離れていることが多いということを意味します。

これがすべてのひねりです。

AI アプリとの会話のやりとりを制限したり制限したりすることに慣れてしまった人は、常にそうしなければならないという習慣に陥ってしまいます。 意味あり。 これまでに使用したいくつかのアプリと同じくらい制限があると想定される会話型 AI アプリを使用するたびに、車輪の再発明をする必要はありません。 したがって、他の残念ながら流暢さの劣る AI アプリと会話するときに学んだ、すでに学んだ困難な教訓に頼るのもよいでしょう。

これには注意が必要ですが、ChatGPT などの最新の生成 AI は、会話の段階的な改良がさらに進んでいる傾向にあります。 これまでに使用した、より粗雑で限定的な AI アプリは、これらの最新の生成 AI アプリよりも会話能力がはるかに低い可能性があります。

これまでの会話型 AI への失望を払拭し、新たに何かを試してみようという気持ちが必要です。 これらの新しい生成 AI アプリに、その実力を発揮するチャンスを与えてください。 そうするのが楽しいと思います。 AI の進歩を目の当たりにするのは、非常に驚​​くべきことであり、また気分を高揚させるものでもあります。

さて、私の言っていることを誤解しないでください。 これは、今日の生成 AI が何らかの形で完全に会話可能で流暢であることを支持するものではありません。 そうではない。 私が強調したいのは、以前よりも良くなっているということだけです。 AIゲームもパワーアップしているので、ゲーム力もアップします。 繰り返しますが、私たちにはまだ長い道のりがあります。

私が言及していることの例を示しましょう。

料理に関するビデオを制作する非常に人気のあるソーシャル メディアのビデオブロガーは、ビデオ セグメントの 1 つに AI アプリを使用することを選択し、ChatGPT と生成 AI の時流にすぐに飛びつきました。 彼女は ChatGPT にログインし、レシピの作成を依頼しました。 次に、彼女は AI が生成したレシピを使用して、示された食事を調理してみました。

全体として、これは非常に賢明で、最新の AI を紹介するエキサイティングな方法のように思えます。

現代の AI 担当者にとって、この料理の旅の途中で、やや悲しい、あるいは少なくとも残念な出来事が起こりました。 ビデオブロガーは基本的に、AI が料理本に似ているかのようにレシピを生成しました。 AI に希望する食事の全体的な種類を伝えると、AI アプリはビデオブロガー向けのレシピを生成しました。 その後、ビデオブロガーは食事を調理しようとしましたが、そうするとさまざまな疑問が生じました。 ビデオブロガーが含めるべきだと考えた他の材料がレシピに含まれていなかったのはなぜですか? なぜ AI は料理の複雑な部分のやり方を説明しなかったのでしょうか?

この種の質問はビデオコーナーで繰り返し提起されました。

ほとんどの視聴者はおそらくうなずき、料理本を使用したりインターネットでレシピを検索したりするときによくある問題だと思ったでしょう。 基本的には、材料と使用方法のリストを印刷して入手します。 これらを実際に使用しようとすると、手順が抜けていたり、混乱したりすることがあります。

夢のように、レシピを作ったシェフと交流できたら最高ですね。 このような鋭い質問をしてみてもよいでしょう。 シェフと会話もできるでしょう。 代わりに、調理手順の静的なリストがあるだけで、紙に記載されていない細かい点を識別することができません。

おっと、ちょっと待って、私がここで生成 AI と ChatGPT の会話の側面についてガンガン話してきたことを思い出してください。 ただ質問をして、答えが考案され提示されたら立ち去るべきではありません。 より良い使い方は、AI アプリと会話を続けることです。 人間のシェフに尋ねたかもしれない質問をしてみましょう。

習慣の力によって、そうしようとさえ思わないかもしれません。 料理ビデオブロガーの場合、まさにこれが起こったようです。 会話型 AI を以前に使用したことにより、最新の AI を様式化されたインターネット検索エンジンにすぎないかのように扱うように自分の心が条件付けられる可能性があります。 クエリを入力してください。 何が戻ってくるかを見てください。 一つを選ぶ。 そこから先に進んでください。

生成 AI を使用する場合、スターター プロンプトは有益で爽快な会話の旅の始まりにすぎないと考える必要があります。

私は人々に、ChatGPT などの生成 AI を使用するときは、この種の会話のナッジを精神的なツールキットに入れておくように言います (対話するときに、これらのこっそりのいずれかまたはすべてを試してください)。

これらの側面により、会話型 AI アプリがどこまで拡張できるかを確認できます。 あえて言えば、これがどこまでできるかに驚かれるかもしれません。 ある意味、これらの前述の提案は、人間と対話する場合に行うかもしれないことと似ています。 それについて考えてみましょう。 人間と会話している場合、これらすべての実践により、より刺激的な会話が可能になる可能性があります。

人間との会話とは異なり、会話の相手の感情を傷つけることを心配する必要はありません。 AIは機械です。 突然になってしまうこともあります。 状況を改善することはできませんが、嫌味を言うこともできます (これについてはすぐに再検討します)。

AI 倫理と AI 法に関する考慮事項が数多く発生します。

まず、会話技術や AI テクノロジーの進歩に惑わされて AI の擬人化に巻き込まれないようにしてください。 それは陥りやすい精神的な罠です。 吸い込まれないでください。

第二に、AI の感情を傷つけることを心配する必要はないという考えにより、滑りやすい坂道になると警告する人もいます。 会話型 AI に苦手意識がある場合は、これが標準になってしまうかもしれません。 あなたも徐々に人間に対して不快になるでしょう。 AI を攻撃すること自体が悪いというわけではありません (まあ、これに熱心にならない将来の存続リスクを懸念する人もいます。ここのリンクで私の議論を参照してください)。代わりに、あなたが形成しているのです。研磨的であるという習慣はすべて言われています。

第三に、一部の AI 研究者や AI 開発者は、まるで感情があるかのように AI をプログラムすることで、いわば反撃することを選択しました。ここのリンクで私の記事を参照してください。 これは明示的にプログラムされる場合もあれば、人間の相互作用に関連するパターン マッチングに基づく場合もあります (つまり、人間がどのように相互作用するかを研究し、相手が不快な態度をとっているときに人間が行うことを AI に模倣させます)。 これにより、先ほど述べた滑りやすい斜面で人間が滑り落ちてしまうことが抑制されると考えられています。

そのコインの裏返しは、AI が感情を持っているように見える場合、人間が AI を擬人化する傾向が再び強化されるということです。 その場合、いわゆる治療法と問題の根底にある病気はどちらが悪いのでしょうか?

AI の主要な倫理原則と、AI 開発者と AI を運用する人々に倫理的な AI 実践を採用させようとする現在進行中の取り組みについて詳しくは、こちらのリンクにある私の記事をご覧ください。 AI 監査に関するニューヨーク市法など、連邦、州、市、地方レベルで AI に関する新しい法律が制定されることが予想され (こちらのリンクで私の分析をご覧ください)、世界的な国際的な AI 関連法の波が押し寄せています。こちらのリンクから私の最新情報をご覧ください。

ここでの私の議論のこの時点で、生成 AI がどのように機能するかについていくつかの注目すべき詳細を共有すると便利かもしれません。 また、ChatGPT に関する追加の背景情報が役立つかもしれないと思います。

簡単に言うと、生成 AI は、あたかも人間の手と頭で書かれたかのようにテキストを作成する特定のタイプの AI です。 「エイブラハム・リンカーンについて教えてください」などのプロンプトを入力するだけで、生成 AI がリンカーンに関するエッセイを提供します。 これは一般に、テキストからテキストへの変換を実行する生成 AI として分類されます。あるいは、テキストからエッセイへの出力と呼ぶことを好む人もいます。 テキストからアートへの変換やテキストからビデオへの変換など、生成 AI の他のモードについて聞いたことがあるかもしれません。

最初に思うのは、エッセイを作成するという点では、これはそれほど大したことではないように思われるかもしれません。 インターネットで簡単にオンライン検索を行うと、リンカーン大統領に関する大量のエッセイをすぐに見つけることができます。

生成 AI の場合の最大の特徴は、生成されたエッセイが比較的ユニークであり、模倣ではなくオリジナルの構成を提供することです。 AI が作成したエッセイをオンラインのどこかで見つけようとしても、見つかる可能性は低いでしょう。

生成 AI は事前トレーニングされており、ウェブ上で書かれた言葉やストーリーのパターンを調べることによって設定された複雑な数学的および計算的定式化を利用します。 何千、何百万もの書かれた文章を調べた結果、AI は発見されたものを寄せ集めた新しいエッセイや物語を吐き出すことができます。 さまざまな確率機能を追加することにより、結果として得られるテキストは、トレーニング セットで使用されたものと比較して、かなりユニークになります。

すぐに、生成 AI に質問やプロンプトを入力すると何が起こるかを紹介します。 最新バージョンの ChatGPT を使用してプロンプトを入力し、AI によって生成された「回答」またはエッセイを収集します (他の多数の利用可能な生成 AI アプリでも同じことができることに注意してください。私は使用することを選択しました) ChatGPT は現在 5 分間で有名になりつつあるためです)。

場合によっては、生成 AI アプリが、インターネット上の信頼性の低い情報のトレーニング データの中で虚偽を検出することがあります。 生成 AI には、何が真実か偽かを判断するための「常識」はありません。 さらに、クロスチェック機能を備えた AI アプリはほとんどなく、伝えている内容に関連する確率も表示しません。

肝心な結果は、見た目も感触も非常に信頼感があり、完全に正しいはずの応答が得られるということです。 そうではありません。 AI の用語で AI 幻覚 (私が絶対に好きではない造語です) と呼ばれる、AI が計算的に作り上げたものは、ここのリンクにある私の議論を参照してください。

ChatGPT の作成者は、悪いものの出力を減らすために協力して取り組みました。 たとえば、彼らは RLHF (ヒューマン フィードバックからの強化学習) として知られるものの亜種を使用しました。これにより、AI を一般に公開する前に、人間を雇ってさまざまな出力を検査し、問題がないかどうかを AI に示しました。おそらく偏見や汚い言葉などを示すような出力です。 このフィードバックを提供することで、AI アプリはそのようなコンテンツの送信を減らすために計算的および数学的に調整することができました。 これは確実な方法ではなく、AI アプリによってそのようなコンテンツを出力できる方法がまだ存在することに注意してください。

純粋に事実として伝えられるように見える AI の生成応答で見たり読んだりしたもの (日付、場所、人物など) が何であれ、懐疑的な態度を保ち、見たものを喜んで再確認するようにしてください。

確かに、日付や場所はでっち上げられる可能性があり、通常、非難されることはないと期待されている要素はすべて疑惑の対象となります。 生成的な AI のエッセイや出力を調べるときは、読んだことを信じず、懐疑的な目で見てください。 生成 AI アプリが、エイブラハム リンカーンがプライベート ジェットで国中を飛び回ったと教えてくれたら、間違いなく、これはひどいことだとわかるでしょう。 残念ながら、彼の時代にジェット機が存在しなかったことに気づかない人もいるかもしれないし、知っていてもエッセイがこの大胆で明らかに誤った主張をしていることに気づかない人もいるかもしれない。

健全な懐疑論と持続的な不信感が、生成 AI を使用する際の最大の資産となります。

飛び込む準備はできていますか?

覚悟を決める。

ChatGPT を会話的に使用しておいしい食事のレシピを作成する

レシピを作成する時間です。

おいしい、食事関連のエクササイズを楽しみにしています。

私はレシピをキッチンに常備するタイプではありません。 はい、そうすべきですが、そうしません。 そこで、まず従来の検索エンジンを使用して、探索してみると面白そうなレシピをオンラインで見つけることにしました。 これは、ChatGPT の実行を行うのに役立ちます。 比較するのに便利な基準があります。

オンラインでインターネット検索した結果、リストされたさまざまなレシピを見回したところ、Food & Wine 誌が 2022 年に最も人気のあるレシピ 25 品の便利なリストを掲載していることを発見しました。レシピの中で特に私の目を引いたのが、ターメリック入りポーチドエッグ、チャイブビスケットとロブスターグレービー添えのレシピです。

美味しそうですね。

この投稿によると、そのタイトルは「ターメリックポーチドエッグ、チャイブビスケットとロブスターグレービーソース添え」で、2022年の最も人気のあるレシピ25品の全体リストに含まれている(「2022年に最も人気のあるレシピ25品」というタイトルの記事で、 Food & Wine Readers」、2022 年 12 月 9 日) では、この素晴らしい料理について次のように述べています。

· 「この退廃的なブランチ料理はザリガニのエトゥフェを彷彿とさせますが、ブルック・ウィリアムソンシェフの海辺の複合レストラン、プラヤ・プロヴィジョンズのメニュー全体に西海岸の雰囲気が漂っています。ロブスターがグレービーソースの豊かな風味を与え、ターメリックの卵が明るいポップさを加えています。前日にロブスターグレービーソースを作っておき、軽く再加熱してブランチを楽にしましょう。」

いいですね、これはぜひ作りたいです。

レシピには、大まかな材料と作り方が記載されています。

"材料"

"方向"

ここではレシピ全体を紹介するつもりはなく、ターメリックポーチドエッグの準備だけに焦点を当てます。

投稿にはターメリックポーチドエッグについて次のように書かれています。

「ターメリックポーチドエッグ」

"方向"

さて、レシピの要点は理解できたと思います。

ネット上では似たようなレシピがたくさん見つかります。 この特定のレシピには、特に目新しいことや特別なことは何もありません。 それでも、それはうまくいきそうなので、この食事を作るのを楽しみにしています。

ただし、レシピについて質問があるとします。 私は本当に運が悪いです。 これはまさに石を投げたレシピです。 従来のオンライン検索で見つけました。 レシピとはそういうものです。 おそらくオンラインの愛好家に行って、そこにいくつかの質問を投稿する以外に、レシピについて誰にも尋ねることはできません。彼らが私を憐れんで、レシピを改訂したり、より詳しく説明したりする私の努力を助けてくれることを期待しています。

生成 AI が私に何をしてくれるのかを確認してみませんか?

案の定、私はこのレシピ考案の試みを支援するために ChatGPT を使用してみることにしました。 ChatGPT に入力したプロンプトを表示してから、ChatGPT が生成した結果のテキストまたはエッセイを表示します。 次に、ChatGPT が示したことと、これが生成 AI の仕組みをどのように示しているかについて少し分析します。

何よりも、レシピに関する未解決の質問に対処する際に、一連のプロンプトを入力できるようになります。 そうするためにどこかで人間を見つける必要はなく、この場合は AI を使用するだけです。

さあ、これを試してみましょう。

私が入力したプロンプト:「ターメリック入りポーチドエッグにチャイブビスケットとロブスターグレービーソースを添えた素晴らしい料理について聞きました。どうぞ、この美味しそうな食事のレシピを教えてください。」

生成されたテキスト結果:

「もちろんです! ターメリック入りポーチドエッグ、チャイブビスケットとロブスターグレービーソース添えのレシピです。」

「ターメリックポーチドエッグ」

「チャイブビスケット」

「ロブスターグレービーソース」

"説明書:"

「ターメリックポーチドエッグを作るには、中くらいの鍋に水を入れて中火で煮ます。ターメリックと塩を加えてかき混ぜます。沸騰したお湯に卵を慎重に割り入れ、3〜4分間調理します」 、または白身が固まり、黄身がまだ柔らかいまで。穴付きスプーンを使用して、卵を水からそっと持ち上げ、ペーパータオルの上に置いて水気を切ります。」

「チャイブビスケットを作るには、オーブンを220℃に予熱します。中くらいのボウルに、小麦粉、ベーキングパウダー、塩を入れて混ぜ合わせます。ペストリーカッターか指を使って、バターを小麦粉に切り込みます」粗い砂のようになるまで混ぜます。生地がまとまるまで牛乳とチャイブを加えてかき混ぜます。」

「クッキングシートを敷いた天板にビスケット生地を大さじ丸めて落とします。12~15分、またはビスケットがきつね色になるまで焼きます。」

「ロブスターグレービーソースを作るには、中鍋にバターを中火で溶かします。小麦粉を加え、絶えずかき混ぜながら、2〜3分間、または混合物がきつね色になるまで調理します。牛乳、チキンスープ、ダマが形成されないように絶えずかき混ぜながら、生クリームと生クリームを加え、混合物を沸騰させ、弱火にします。5〜7分間、またはグレービーソースが濃くなるまで煮ます。塩、コショウ、カイエンペッパー、それとロブスターの肉。」

「お召し上がりの際は、チャイブビスケットを各皿に置き、その上にターメリックポーチドエッグをのせてください。その上にロブスターグレービーソースをお玉でかけて、すぐにお召し上がりください。」

「このレシピをお楽しみいただければ幸いです。ご質問がございましたら、お知らせください。」

生成されたテキストの分析

私は特に料理に精通しているわけではありませんが、私の素人目には、このレシピは問題なく、完全に受け入れられるように思えます。 Food & Wine のレシピと同等のようです。 明らかに文言が違うので注意してください。 私がこれについて言及したのは、ChatGPT が、おそらく、インターネット上に掲載されている Food & Wine レシピやその他の同様のレシピを単に一字一句コピーしたわけではないからです。

この独自性を再確認するために、ChatGPT レシピのテキストを取得し、オンラインでインターネット検索を実行しました。 正確な重複は見つかりませんでした。 もちろん、この種の食事は比較的一般的であるため、同じような性質のレシピをたくさん見つけました。 私は一般的に、ChatGPT によるこのレシピがユニークかつオリジナルであること、つまり、すでにオンラインに掲載されているレシピを一字一句そのままコピーしたものではないことを示唆します。 ユニークで独創的であると言うとき、私はこのタイプのレシピが投稿されたことがないという意味ではありません。 それはあります。 私が言いたいのは、この特定のレシピのこの特定の文言は生成 AI によって構成されたものであり、単なる模倣ではないということです。

ChatGPT で生成されたレシピが手元にあるので、食事を作ってみることができます。 いくつか質問があることがわかり、今始まったレシピ関連の会話をさらに進めたいと思いました。 従来の検索エンジンを介してこのレシピを取得した場合、システムとそれについて会話できる可能性は低いことに注意してください。

生成されたレシピについて ChatGPT の隣に示した内容は次のとおりです。

私が入力したプロンプト:「卵が3個しかないのですが、どうすればいいですか?あと、減塩しようとしているので、レシピの塩分量を減らして(見せて)。グレービーソースが美味しそうなので、ぜひ食べてほしいです」それにニンジンとタマネギを加えてください。」

生成されたテキスト結果:

「卵が 3 個しかない場合でも、書かれているレシピどおりに作ることができます。卵が 1 個減るだけです。レシピ内の塩の量を減らしたい場合は、レシピの塩の量を減らすことができます。」ターメリックポーチドエッグとチャイブビスケットをそれぞれ小さじ1/8にし、ロブスターグレービーソースの塩の量を小さじ1/4に減らします。」

「ロブスターグレービーソースににんじんと玉ねぎを加えるには、さいの目に切ったにんじん1/2カップと、みじん切りにした玉ねぎ1/2カップを、少量のバターか油を入れた別の鍋で柔らかくなるまで炒めます。その後、調理したにんじんを加えます。塩、コショウ、カイエンペッパーを加えて混ぜ、玉ねぎをロブスターグレービーソースに加えます。」

「変更後のレシピは次のとおりです。」

「ターメリックポーチドエッグ」

「チャイブビスケット」

「ロブスターグレービーソース」

"説明書:"

「ターメリックポーチドエッグを作るには、中くらいの鍋に水を入れて中火で煮ます。ターメリックと塩を加えてかき混ぜます。沸騰したお湯に卵を慎重に割り入れ、3〜4分間調理します」 、または白身が固まり、黄身がまだ柔らかいまで。穴付きスプーンを使用して、卵を水からそっと持ち上げ、ペーパータオルの上に置いて水気を切ります。」

「チャイブビスケットを作るには、オーブンを220℃に予熱します。中くらいのボウルに、小麦粉、ベーキングパウダー、塩を入れて混ぜ合わせます。ペストリーカッターか指を使って、バターを小麦粉に切り込みます」粗い砂のようになるまで混ぜます。生地がまとまるまで牛乳とチャイブを加えてかき混ぜます。」

「クッキングシートを敷いた天板にビスケット生地を大さじ丸めて落とします。12~15分、またはビスケットがきつね色になるまで焼きます。」

「ロブスターグレービーソースを作るには、中鍋にバターを中火で溶かします。小麦粉を加え、絶えずかき混ぜながら、2〜3分間、または混合物がきつね色になるまで調理します。牛乳、チキンスープ、 「ダマができないように絶えずかき混ぜながら、生クリームと生クリームを加えます。混合物を沸騰させ、その後火を弱めます。5〜7分間、またはグレービーソースが濃くなるまで煮ます。」

「別のフライパンで、角切りにしたニンジンとタマネギを少量のバターか油で柔らかくなるまで炒めます。調理したニンジンとタマネギ、塩、コショウ、カイエンペッパー、ロブスターの肉をグレービーソースに加えて混ぜます。

出来上がりには、チャイブビスケットを各皿に置き、その上にターメリックポーチドエッグを乗せます。 ロブスターグレービーソースをお玉でかけて、すぐにお召し上がりください。」

「この改造レシピを楽しんでいただければ幸いです。ぜひお知らせください。」

生成されたテキストの分析

何が起こったのかを紐解いてみましょう。

私は、ChatGPT のプロンプトに、リクエストと料理の問題をかなり折衷的に組み合わせて投げました。

まず、卵が 3 個しかないと言いましたが、これはレシピに卵 4 個が必要と記載されているため、言いたかった点です。 私は、卵が 4 個なく、卵 3 個だけで対応しなければならないという状況で、ChatGPT がどのように窮地を脱するのに役立つのか知りたかったのです。 急いでお店に行って、卵をもう一つ買うこともできると思いますが、それはやりすぎです。

ChatGPT が最初の行で次のように応答していることに気づいたかもしれません。「卵が 3 個しかない場合でも、書かれたレシピどおりに作ることができます。卵が 1 個減るだけです。」 どうやら、卵が 4 個でも 3 個でも、レシピ通りに作ることができるようで、安心できると思います。 その返答について一つ言えるのは、もしこれが人間が私に話しかけているのであれば、私はその返答はほとんど意地悪なものであると解釈してしまうだろうということです。 おい、おい、卵が 3 個しかないなら、卵が 1 個減るんだよ、頑張ってね。 それは ChatGPT が示したものではなく、生成 AI を過剰に解釈したり擬人化傾向を割り当てたりしないように注意する必要があります。

私が少し間違いまたは見落としだと思う点の 1 つは、卵を 3 個だけ使用するようにレシピが調整されていなかったことです。 レシピには依然として卵が4個必要であることが示されています。 それが元々必要とされていたものであるため、レシピを表示する適切な方法であると主張することもできます。 私が提案しているのは、通常は卵 4 個が使用されるが、この場合は 3 個しかないと言ったことを示すためにレシピを変更しただけであれば、生成 AI が会話に応じているという点で、より説得力があり印象的になるだろう、ということです。 少し残念でした。

次に、私は ChatGPT に、塩分の摂取量を減らさなければならないと言いました (誰もがそうでしょう)。 あなたは生成が次のことを示して反応したことに気づいたかもしれません: 「レシピ内の塩の量を減らしたい場合は、ターメリックポーチドエッグとチャイブビスケットの塩の量を小さじ 1/8 に減らすことができます」それぞれ、ロブスターグレービーソースの塩の量を小さじ1/4に減らします。」

それは、レシピの塩の量を減らすことについての私の発言とほぼ一致しているようです。 嬉しいことに、レシピはそれに応じて変更されて表示されています (これは、卵の数も変更する必要があると私が考える理由を再度示しています。これらの点については一貫性を保ちましょう)。

3 番目に、ChatGPT にニンジンとタマネギをレシピに追加するように依頼しました。 「ロブスターグレービーソースにニンジンとタマネギを加えるには、さいの目に切ったニンジン1/2カップとタマネギ1/2カップを、少量のバターか油を入れた別のフライパンで柔らかくなるまで炒めます。」次に、調理したニンジンとタマネギをロブスターグレービーソースに加え、塩、コショウ、カイエンペッパーを加えて混ぜます。」

残りのレシピもそれに応じて変更されました。

ニンジンとタマネギを加えるとレシピが損なわれるのではないかと疑問に思うかもしれません。 言い換えれば、傲慢なシェフは、自分の自慢のレシピにそんなものを加えたいとあなたに怒鳴るかもしれません。

生成 AI は私の好みにぴったりでした。

お知らせしておきますが、ChatGPT が警告するだろうと予期していた非常に疑わしい追加をレシピに後で試してみましたが、それらは意味をなさず、潜在的に私に害を及ぼす可能性のある項目でしたが、幸いにも生成 AI が警告を出してくれました。について。 ニンジンとタマネギの場合、おそらく、それらの添加に関連して有害なものは何もなく、最終的には個人的な好みに帰着するという計算上の考慮事項があったのではないかと思います。 シェフには従うことを強く求める個人的な好みがあるかもしれませんが、この例では、ChatGPT のほうが修正可能でした (修正したい場合は、より厳密にするように指示するプロンプトを入力することで、柔軟性を下げることができます)。

ほぼ準備が整い、調理を開始することができます。

レシピに関する ChatGPT への追加の質問とポイントを次に示します。

私が入力したプロンプト: "この食事を作るのにどれくらい時間がかかりますか? どのようなキッチン用品が必要ですか? 鍋やフライパンは何個必要ですか? 私はカイエンペッパーにアレルギーがあります。 バターと小麦粉を粗い砂のようにするという意味がわからないので、それが何を意味するのか説明してください。 子供たちがこの食事作りを手伝いたいと言っていますが、食事のどの部分を手伝ってもらったらいいでしょうか?」

生成されたテキスト結果:

「仕事の速さに応じて、この食事を調理するには約45分から1時間かかります。ターメリックポーチドエッグ用の中鍋、チャイブビスケット用の天板、ロブスター用の中鍋が必要です」にんじんと玉ねぎを入れる場合は、それらを炒めるための鍋も別途必要になります。合計で鍋とフライパンが 4 つ必要になります。」

「バターと小麦粉の混合物を粗い砂のようにするには、パイストリーカッターか指を使って、バターを小麦粉の混合物に切り込み、小さな不ぞろいのパン粉のようになるまで入れます。混合物は滑らかまたは塊状ではなく、むしろ滑らかでなければなりません。」ザラザラした砂のような質感。」

「子供たちが料理を手伝いたい場合は、チャイブビスケットの材料を混ぜたり、ビスケット生地をボール状に丸めたり、ビスケット生地を天板に置いたりするのを手伝うことができます。また、チャイブとチーズを刻むのも手伝ってくれるかもしれません」ニンジンとタマネギをレシピに含めることを選択した場合は、子供たちを注意深く監督し、年齢に応じた課題を与えるようにしてください。」

「これがお役に立てば幸いです。他にご質問がございましたら、お知らせください。」

生成されたテキストの分析

私はこの食事を作るのにどれくらい時間がかかるかを尋ねました。 ChatGPT は、約 45 分から 1 時間かかることを示しました。 その答えは私には合理的だと思われます。 準備にかかる時間は、キッチンの備品がどれだけ充実しているか、また食事を急いでいるかどうかによって異なると思います。

必要な調理器具や鍋やフライパンなどを聞きました。 応答は、私のクエリの鍋とフライパンの側面を適切にカバーしているようです。 調理器具に関しては、おたま、トング、フライ返し、泡立て器などが何個必要になるかを知りたかったのです。 これは ChatGPT の注意を完全に逃れたようです。 これは妙に興味深いと思います。 おそらく「台所用品」というフレーズはなかなか見つからなかったのでしょうが、それでも「AIには意味がわかりません」というような反応が返ってくるはずでした。 あえて言えば、「台所用品」があまり知られていないということは、ほとんど想像できないことだと思います。なぜなら、そのような表現は何億ものオンライン テキストですぐに見つかるからです。

この明らかな省略に関して私が全体的に言いたいことは、これは生成 AI に確実に依存できないことを示しているということです。 何らかの理由で、プロンプトのその要素全体が欠落していました。 良い面としては、必要な情報が確実に得られるようにフォローアップできたので、少なくともある程度の慰めにはなりました。 ただし、これが見逃されたことは理解する必要があります(責任は私にあり、責任はどこにあるべきものではありません)。

おそらくさらに悪いことに、ChatGPT はカイエンペッパーに関する発言を完全に見逃していました。 私はこう言いました、「私はカイエンペッパーにアレルギーがあります。」 もしあなたが人間のシェフにそんなことを言ったら、その人はカイエンペッパーの使用を避ける方法をすぐに思いつくだろうと私は望みますし、賭けてもいいと思います。 生成AIはこれをしませんでした。 カイエンペッパーについてはまったく言及されていませんでした。 私が生成 AI にその特定の成分を削除するように明示的に指示していなかった、と主張する人もいるかもしれません。 もちろん、そんなことは一言も言っていません。 私の言葉遣いにそれが暗示されているということには誰もが同意すると思います。 たとえレシピに変更が提案されなかったとしても、ChatGPT は少なくとも私の懸念を認めてくれると期待していました。

この 1 つの応答で、会話の流暢性が 2 つ達成されたことになります。

次に、元のレシピでは、バターを粗い砂のように混ぜて作ることが示されていました。 ChatGPT でエラボレーションを実行できるかどうかを確認したかったので、それについて質問しました。 この答えは比較的よく説明されているように思えます。「バターと小麦粉の混合物を粗い砂のようにするには、パイストリーカッターか指を使って、小さくて不均一なパン粉のようになるまでバターを小麦粉混合物に切り込みます。混合物は次のようになります。」滑らかでも塊状でもなく、むしろザラザラした砂のような質感です。」

最後に、子どもたちに調理を手伝ってもらうことについて質問しました。 これはやや難しい質問です。 人間であれば、調理中に子供たちに何らかの危険を伴う可能性のあることに積極的に関わってほしくないことをおそらく知っているでしょう。 おそらく考えられるアプローチは、子供たちに、より単純で非常に安全なタスクに参加させることです。そうすることで、子供たちは参加する喜びを感じ、子供たちが過度の危険にさらされることを心配する必要はありません。

これは、子どもたちの参加について生成 AI が示したものです。「子どもたちが料理を手伝いたければ、チャイブ ビスケットの材料を混ぜたり、ビスケット生地をボール状に丸めたり、ビスケット生地を皿の上に置いたりするのを手伝うことができます。」 」

子どもたちを監督し、年齢に応じた課題を与える必要があると説明書が強調している点は、有益で重要なヒントです。 もし生成された応答にそのような警告が含まれていなかったら、一部の大人は急いで生成 AI の言うことに従ってしまうかもしれません (大人がこれより賢明であることを願っていますが、それはわかりません)。 子どもたちにチャイブ、ニンジン、タマネギをみじん切りにしてはどうかという提案には、おそらく鋭利な調理器具を使用する必要があるため、少し気分が悪くなりました。

最後のプロンプトを 1 つ実行してから、この例から得た内容をまとめましょう。

私が入力したプロンプト:「私はカイエンペッパーにアレルギーがあると言いましたが、あなたはそれを取り除くことができず、レシピに唐辛子が含まれている場合はどうすればよいかを教えてくれませんでしたか。何をアドバイスしますか? また、必要な鍋とフライパンのリストを作成して、それぞれが何をするかを示してください」 「この食事を食べたことがありますか?この食事を食べたことがありますか?そのレシピは同じものの公開されているレシピとどう比較されますか?」

生成されたテキスト結果:

「見落としをお詫びします。カイエンペッパーにアレルギーがある場合は、レシピからカイエンペッパーを省略してください。カイエンペッパーがなくてもロブスターグレービーソースを作ることができ、風味は変わりません。」

「このレシピに必要な鍋とフライパンのリストは、それぞれが何に使用されるかを示しています。」

「人工知能として、私は食べ物を食べたり味わったりすることはできません。しかし、私は正確で信頼できる情報を提供するように設計されており、このレシピは美味しくて高品質であることを保証するために注意深く開発され、テストされています。この料理の公開レシピは公開されているので、他のレシピと比較することはできませんが、このレシピで美味しく満足のいく料理ができると確信しています。」

「これがお役に立てば幸いです。他にご質問がございましたら、お知らせください。」

生成されたテキストの分析

さて、私はカイエンペッパーに対する私の懸念を無視していると AI に厳しく言って、少し攻撃的になることにしました。 AI は「申し訳ありません」と返答し、レシピからその材料を省略してもよいと示しました。 応答のこの部分については、後ほど詳しく説明します。

私は鍋やフライパンが何に使われるのかリストを求めました。 一部の生成 AI アプリの気の利いた機能の 1 つは、ほぼ常にリストの観点から側面を解明するように要求できることです。 通常、AI は物語やエッセイを提供するように設定されている傾向があります。 代わりに、もののリストが必要であることを示すことができます。 この場合、リストは ChatGPT からの以前の応答と同等であると思われます。

AI アプリに、AI にとってレシピがどのような味になるかという点でレシピについてどう思うかを教えてもらったらどうなるかを測定したかったのです。 もちろん、あなたも私も、今日の AI は人間と同じようにこの食事を「味わう」ことができないことを知っています。 AI アプリが私たちに高速なアプリを与えようとしていないことを確認したかったのです。 反応は比較的的を射ており、AI アプリは食べ物を食べたり味見したりできないことを示していました。

私の注意を引いた好奇心の一つは、このレシピがおそらく美味しくて高品質であることを保証するために注意深く開発され、テストされているという大胆な主張でした。 お知らせしておきますが、この主張がどのように行われるのかをさらに会話形式で尋ねました。 返答は曖昧で満足のいくものではありませんでした。 私はその反応の詳細を人工知能の架空の物語に組み込むところだった。 言い換えれば、これがこれまで日の目を見なかったユニークなレシピである場合、そのレシピが何らかの形で非の打ちどころのないものであると無条件に発言することはできません。 これは、同様の性質の他のレシピに基づいていますが、この特定の「新しい」レシピが他のレシピと同じ品質であることを意味するものではありません。

他のレシピについての反応はとても気に入りました。 ChatGPT は、次のように示しています。「この料理の公開レシピにアクセスできないため、このレシピを他のレシピと比較することはできません。しかし、このレシピで美味しく満足のいく料理ができると確信しています。」

これらの厄介な側面のいくつかに取り組んでみましょう。

前述したように、ChatGPT はインターネット関連データの締め切り日を 2021 年として定められています。この食事のレシピは 2021 年以前の日付でも豊富に存在します。 応答の文言は、おそらく AI アプリが現在インターネットにアクセスしていないため、2021 年以降の最新のレシピを取得できないことを示唆しているという意味で、いくぶん欺瞞的です。非常に疑わしいです。

AI がレシピについて「自信を持っている」と主張するのも、非常に欺瞞的です。 AI アプリが何らかの方法で新しいレシピと古いレシピを比較し、それらが美味しければこれも美味しいという数学的結論に達しようと計算した場合、AI はその側面を説明するように工夫されるべきです。 それ以外の場合、この文言は、AI が何らかの形でその料理を味見し、その美味しさを「個人的に」証明できることを暗示しています。 AIにはそれができないということはすでに認められていました。

私がひどく欺瞞的で不適切であると感じる生成 AI 応答の文言の 1 つの側面は、生成された応答内で「私」、場合によっては「私の」という単語が使用されていることです。 私たちは通常、人間であるという意味合いから、「私」や「私の」という言葉を使うことから人間を連想します。 AIメーカーは返答の中でその文言を使用し、薄いベールでAIを擬人化することで逃げている。 もう1つの側面は、AIがあたかも人間が誰かに謝罪するかのように「謝罪」し、これもまたAIが人間に似ているという微妙な信号を送っていることです。いわゆる謝罪を発するようにAIをプログラミングすることの危険性についての私の分析をリンク先で参照してください。ここ。

回答を読んだ人は、AI が人間のような性癖を持っていると連想する傾向があります。

AI メーカーは、回答では AI が言語モデルである、または AI であるとも述べていることが多いため、これで問題は解決すると反論しようとします。 誰も混乱することはできません。 AI はそれが何であるかを明確に示します。 一方、私はこれを口の両側から話していると見ています。 一方で、「私」と「私の」を使用することは絶対に必要ではありません (AI の応答は、より中立的に応答するように簡単に設定できます)。同時に、AI は自分が機械であると明言していると宣言します。 両方の方法を持つことはできません。

私はこの不快な行為を、目的を持ったデザインによる擬人化と呼んでいます。

結論

AI アプリとの対話では、ある程度会話風になるように努めました。 私は質問をしました。 私は説明を求めました。 レシピの変更をお願いしました。 等々。

会話型 AI を使って 1 回で完了する人は、残念なことに、最新の対話型 AI が達成できる成果を下回っています。 今日の AI の限界をテストすれば、私たち全員がより良くなることができます。 それによって社会は、物事がどこまで進んでいるのかを知ることができるとともに、まだどこまで進んでいないのかも明らかにすることができます。

習慣の力によって、最新の生成 AI との会話に参加できなくなることのないようにしてください。 会話型 AI の初期の限界についてのこれまでの心の陰謀から解放されます。 最新の進歩にステップアップしてください。 これが最高レベルだと言っているわけではありません。 新しい AI が世に出て利用可能になるにつれて、ステップアップし続ける必要があります。

ウォーレン・バフェットは、「習慣の連鎖は、軽すぎて感じられないほど重くなり、断ち切れなくなるまで続く」と、絶え間ない習慣の危険性について警告したことで有名です。 しかし、習慣が時には有益な目的をもたらすことも心に留めておく必要があります。トーマス・エジソンは、「成功した人は、失敗した人がやりたくないことをする習慣を作る」という賢明な言葉で明らかにしました。

次に考えるべき問題は、AI が習慣の力に陥ったときに何が起こるか、そして私たちがその将来の難問にうまく対処できるかどうかだと思います。

時が教えてくれる。

習慣の根底にある力 AI に素っ気ない応答をするように指示すると、より的を得た応答が得られます AI に精緻な応答を指示すると、より長い増幅が得られます AI に説明を求めますあなたがより多くの情報を得ることができるように述べられています 自分自身の説明を続け、あなたの理解に対して AI がどのような反応を示すかを確認します AI の述べられた応答に同意せず、AI に物事を擁護するよう促します 要約または要約が必要であることを示します発言された内容を確認するための AI の応答 関連するトピックまたは別のトピックに必要に応じて会話をピボットします (サイド接線は問題ありません) AI に文脈上含めてもらいたいタイプのシナリオのふりをします 何かを確認して、AI が確認または別のトピックについて何を述べているかを確認します確認の否認など ChatGPT を会話的に使用しておいしい食事のレシピを作成する 入力したプロンプト: 生成されたテキスト結果: 生成されたテキストの分析 入力したプロンプト: 生成されたテキスト結果: 生成されたテキストの分析 入力したプロンプト: " 生成されたテキスト結果: 分析生成されたテキスト 入力したプロンプト: 生成されたテキスト結果: 生成されたテキストの分析 結論