AIは、助手にも無能にもなる。人気コンサルが教える「プロンプト設計3つの原則」とは?

Ai,Assistant,Connects,Services,For,Automation,,Support,And,Commerce,,Linking
 

生成AIの回答は浅い、使えないと思っている人は少なくありません。しかし、そう思ってしまう最大の要因は、AIそのものの性能ではなく使い方、特にプロンプトの設計にあると人気コンサルの永江一石さんは語ります。永江さんは自身のメルマガ『永江一石の「何でも質問&何でも回答」メルマガ』の中で、仕事でAIを活用する場合のプロンプトの書き方を伝授しています。

AIを有能な助手に変えるプロンプトの書き方とは

Question

shitumon

永江さんがGeminiで思考モードではなくProモードを利用されているとのこと、参考になりました。お差し支えない範囲でよろしければお教えください。

・どの程度の粒度でプロンプトを書いておられるか、実例を拝見することは可能でしょうか?

・テーマによって1つのチャットでのラリーがかなり多くなる(チャット内の情報が長大になる)場合もあると思います。最大でどの程度まで継続されますでしょうか。何か目安とされている指標があればお教えください。

永江さんの回答

結論から言いますと、わたしのAIの使い方の基本は以下の3点です。

1. 抽象的な指示を出さない
2. ダラダラ長くラリーを続けない
3. 毎回ゼロから新規チャットを作らない

なぜこういう使い方に行き着いたのか、具体例を交えながら順番に説明しますね。

AIを使っていて「なんか薄っぺらい回答しか返ってこないな」と文句を言っている人は、そもそも出し方が間違っています。わたしが実際に書いたプロンプトの一例を挙げると、

「SNSではトランプやイランに関して無知だったりデマを信じたりする人が多いから、その詳細な一覧を作って。例えば、ベネズエラのフェンタニル密輸に関するアメリカの主張と実際の違いとか。あるいは中東問題で、アメリカやイスラエルはイランの迫害を止めるためと言っているけれど、実際にはガザで(過去の歴史問題のように)各機関で死者数の主張が何倍も食い違っていて、事実関係を知らない人が多いよね。こういう事実誤認や主張の食い違いの例を、他にもたくさん挙げて」

などです。こんな風に国連のデータや政府の主張のズレなど「このくらいの解像度で議論したいんだ」という基準を先にAIにインプットしてしまう。そうすると、AIも「あ、この人はこういう深い分析を求めているんだな」と意図を汲み取って、カリブ海の撃沈事件の裏側など、細かいデータを引っ張ってきてくれるわけです。

この記事の著者・永江一石さんのメルマガ

初月無料で読む

print
いま読まれてます

  • AIは、助手にも無能にもなる。人気コンサルが教える「プロンプト設計3つの原則」とは?
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け