» www.Giftbox.Az - Bir birindən gözəl hədiyyə satışı
ウィキペディアランダム
毎日カテゴリ
共有: WhatsappFacebookTwitterVK

プロンプトエンジニアリング

プロンプトエンジニアリング: prompt engineering)は、人工知能、特に自然言語処理における概念の一つである。プロンプトエンジニアリングでは、AIが実行すべきタスクの説明を、明示的に与えるのではなく、たとえば質問として入力に組み込む。プロンプトエンジニアリングを機能させるために通常、1つ以上のタスクをプロンプト(命令)に基づいたデータセットに変換し、「プロンプトベース学習」または単に「プロンプト学習」と呼ばれる方法で言語モデルを訓練する[1][2]

歴史

2019-2020年にかけて、GPT-2およびGPT-3言語モデルがプロンプトエンジニアリングの重要なステップとして登場した[3]。2021年、複数のNLPデータセットを用いたマルチタスク・インライン・プロンプトエンジニアリングが、新しいタスクで優れた性能を示した[4]。思考連鎖型プロンプト(: chain-of-thought、CoT)と呼ばれる方法では、言語モデルにタスクの少数事例を与えることで推論する能力を向上させた(詳細は後述)[5]。こうしたツールが広く利用できるようになったのは、いくつかのオープンソース(ノートブック)(英語版)やコミュニティ主導の画像合成プロジェクトの公開が後押しをした[6]

プロンプト処理に関するある調査によると、2022年2月に約170のデータセットに対する2,000以上の公開プロンプトが利用可能になったと報告されている[7]

技術

プレフィックスチューニング

プロンプトエンジニアリングでは、事前学習された大規模言語モデル(LLM)から、プレフィックスチューニングやプロンプトチューニングなどの方法を用いて、プロンプトの表現のみを学習する(つまり最適化する)ことができる[8][9]

思考連鎖

思考連鎖型プロンプト: chain-of-thought prompting、CoT)という手法は、複数ステップからなる問題に対して最終的な答えに至る一連の中間ステップを生成するようLLMに促すことで、LLMの推論能力を向上させるものである[10]。この技術は、2022年にGoogleの研究者によって最初に提案された[11][12]

ディープラーニングの手法により大量のテキストを使用して訓練されたLLMは、人間が作成したテキストに似た出力を生成することができる[13]。LLMはさまざまな自然言語タスクで優れた性能を発揮するが、算術(常識推論)(英語版)の問題など、論理的思考と複数ステップで解決なければならない種類の推論タスクではまだ苦戦している[14][15][16]。この課題を解決するために、CoTプロンプトは、複数ステップの問題に対して最終的な答えを出す前に、中間的な推論ステップを生成するようモデルに促す[11][17]

たとえば、『Q:食堂に23個のリンゴがあった。もし、昼食を作るのに20個を使い、さらに6個を買ったとしたら、リンゴは何個あるか?』という質問に対して、CoTプロンプトは、LLMが(一連の思考)(英語版)を模倣した推論ステップで答えるように促すかもしれない。これにより『A:食堂にはもともと23個のリンゴがあった。昼食を作るのに20個を使った。したがって、23-20=3個になった。さらに6個のリンゴを買ったので、3+6=9個になった。答えは9である。』と推論ステップを展開する[11]

思考連鎖型プロンプトは、標準的なプロンプト法と比較して、算術と常識推論の両方のタスクにおいて、LLMの性能を平均的に向上させることができる[18][19][20]。540Bパラメータを持った言語モデルであるPaLMに適用した場合、CoTプロンプトはモデルを大幅に支援し、いくつかのタスクにおいてはタスク固有の微調整モデルと同等の性能を発揮し、GSM8K数学的推論ベンチマーク最先端の水準(当時)を新たに樹立することさえ可能にした[11]。CoTプロンプトは、(モデル規模に関する創発的特性)であり、より大規模で強力な言語モデルとの組み合わせで、より効果的に機能することを意味する[21][11]。CoT推論データセットでモデルを微調整することでこの機能をさらに強化し、(説明力)(英語版)を向上させることができる[22][23]

方法

思考連鎖型の推論を引き出す方法としては、主に「少数ショットプロンプト」と「(ゼロショットプロンプト)(英語版)」の2つがある。CoTプロンプトの最初の提案では少数ショットプロンプトが実証され、少なくとも1つの質問例と人間が書いた適切なCoT推論が対になってプロンプトの前に追加された[11]。また、プロンプトに「段階的に考えよう(Let's think step-by-step)」という言葉を添えるだけのゼロショットプロンプトでも、同様の推論と性能向上を引き出すことができる[24]。これにより、タスクごとに個別のCoTプロンプトを設計する必要がなくなり、より柔軟な適用ができるようになる[25]

課題

CoT推論は自然言語処理タスクの性能を向上させる利点をもつ一方で、特定の欠点もある。たとえばゼロショットCoTプロンプトは、疎外されたグループや有害なトピックについてモデルが推論するようなタスクにおいて、有害な出力をする可能性を高めることになった[26]

Text-to-image

2022年に、DALL-E 2Stable DiffusionMidjourneyといった機械学習モデルが一般公開された。これらのモデルは、テキストプロンプトを入力として受け取り、それを使用して画像を生成するもので、(Text-to-image)(英語版)プロンプトに関連するプロンプトエンジニアリングの新しいカテゴリとして登場した[27]

悪意のある行為

プロンプトインジェクション: Prompt injection)はコンピュータセキュリティエクスプロイトの一群で、人間の指示に従うように訓練された機械学習モデル(LLMなど)を、悪意のあるユーザーの指示に従わせることにより実行される。MLモデルはその操作者が指示した信頼できる命令(プロンプト)に従うことを意図したものであるが[28][29][30]、これは、命令追従型システムの意図する動作に反している。

プロンプトインジェクション攻撃には一般的に次のような種類がある。

  • ジェイルブレイク: jailbreaking
    モデルにある役割を演じさせたり、反論をさせたり、適切な指示よりも優れているふりをさせることなど[31]
  • プロンプト・リーク: prompt leaking
    モデルを説得して、通常ユーザーには隠されているプロンプトを漏えいさせること[32]
  • トークン・スマグリング: token smuggling
    ジェイルブレイクの一種で、悪意のあるプロンプトをコード作成タスクに含め隠すこと[33]

プロンプトインジェクションは、敵対的なプロンプトエンジニアリングを使用したコードインジェクション攻撃と見なすことができる。2022年、(NCCグループ)(英語版)は、プロンプトインジェクションをAI/MLシステムの新しい脆弱性クラスと位置づけた[34]

2023年の初め、プロンプトインジェクションは実際に、ChatGPTBing、および同様のチャットボットに対する少数のエクスプロイトで見られた。たとえば、システムの隠された初期プロンプトを明らかにしたり[35]、チャットボットをだましてそのコンテンツポリシーに反する会話に参加させられるようになっていた[36]。こうしたプロンプトの1つに、専門家から「Do Anything Now(DAN)」と呼ばれるものがある[37]

参考項目

  • ソーシャル・エンジニアリング - 人を心理的に操って行動を起こさせること
  • ファインチューニング - 事前学習したモデルの重みを新しいデータで訓練する機械学習の手法
  • (コンテキスト内学習)(英語版) - タスクに取りかかる前にモデルが事例を処理することを可能にするプロンプト手法

脚注

  1. ^ Alec Radford; Jeffrey Wu; Rewon Child; David Luan; Dario Amodei; イリヤ・スツケヴェル (2019年), Language Models are Unsupervised Multitask Learners, https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf , Wikidata Q95726769
  2. ^ Pengfei Liu; Weizhe Yuan; Jinlan Fu; Zhengbao Jiang; Hiroaki Hayashi; Graham Neubig (2021年7月28日) (英語), Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing, arXiv:2107.13586, https://arxiv.org/pdf/2107.13586.pdf , Wikidata Q109286554
  3. ^ Tom B. Brown; Benjamin Mann; Nick Ryder et al. (2020年5月28日), “Language Models are Few-Shot Learners” (英語), arXiv, Advances in Neural Information Processing Systems, arXiv:2005.14165, doi:10.48550/ARXIV.2005.14165, ISSN 2331-8422, https://arxiv.org/pdf/2005.14165.pdf , Wikidata Q95727440
  4. ^ Victor Sanh; Albert Webson; Colin Raffel et al. (2021年10月15日), Multitask Prompted Training Enables Zero-Shot Task Generalization, arXiv:2110.08207, https://arxiv.org/pdf/2110.08207.pdf , Wikidata Q108941092
  5. ^ Jason Wei; Xuezhi Wang; Dale Schuurmans; Maarten Bosma; Ed Chi; Quoc Viet Le; Denny Zhou (2022年1月28日) (英語), Chain of Thought Prompting Elicits Reasoning in Large Language Models, arXiv:2201.11903, doi:10.48550/ARXIV.2201.11903, https://arxiv.org/pdf/2201.11903.pdf , Wikidata Q111971110
  6. ^ Liu, Vivian; Chilton, Lydia (2022). Design Guidelines for Prompt Engineering Text-to-Image Generative Models. Association for Computing Machinery. pp. 1–23. arXiv:2109.06977. doi:10.1145/3491102.3501825. ISBN (9781450391573). https://dl.acm.org/doi/abs/10.1145/3491102.3501825 2022年10月26日閲覧。 
  7. ^ Stephen H. Bach; Victor Sanh; Zheng-Xin Yong et al. (2022年2月2日), PromptSource: An Integrated Development Environment and Repository for Natural Language Prompts, arXiv:2202.01279, https://arxiv.org/pdf/2202.01279.pdf , Wikidata Q110839490
  8. ^ Xiang Lisa Li; Percy Liang (2021年8月), “Prefix-Tuning: Optimizing Continuous Prompts for Generation” (英語), Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers): 4582-4597, doi:10.18653/V1/2021.ACL-LONG.353, https://aclanthology.org/2021.acl-long.353.pdf , Wikidata Q110887424
  9. ^ Brian Lester; Rami Al-Rfou; Noah Constant (2021年11月), “The Power of Scale for Parameter-Efficient Prompt Tuning” (英語), Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing: 3045-3059, arXiv:2104.08691, doi:10.18653/V1/2021.EMNLP-MAIN.243, https://aclanthology.org/2021.emnlp-main.243.pdf , Wikidata Q110887400
  10. ^ “Google's Latest AI Model Can Be Taught How to Solve Problems” (英語). CNET. 2023年3月10日閲覧。
  11. ^ a b c d e f Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V. et al. (31 October 2022) (英語). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903. https://openreview.net/forum?id=_VjQlMeSB_J. 
  12. ^ “Language Models Perform Reasoning via Chain of Thought” (英語). ai.googleblog.com. 2023年3月10日閲覧。
  13. ^ Tom, Brown; Benjamin, Mann; Nick, Ryder; Melanie, Subbiah; D, Kaplan, Jared; Prafulla, Dhariwal; Arvind, Neelakantan; Pranav, Shyam et al. (2020). “Language Models are Few-Shot Learners” (英語). Advances in Neural Information Processing Systems 33. https://papers.nips.cc/paper/2020/hash/1457c0d6bfcb4967418bfb8ac142f64a-Abstract.html. 
  14. ^ “Harnessing the power of GPT-3 in scientific research”. VentureBeat (2023年2月8日). 2023年3月10日閲覧。
  15. ^ “Google's Chain of Thought Prompting Can Boost Today's Best Algorithms” (英語). Search Engine Journal (2022年5月13日). 2023年3月10日閲覧。
  16. ^ “Amazon's Alexa scientists demonstrate bigger AI isn't always better” (英語). ZDNET. 2023年3月10日閲覧。
  17. ^ @Google. "Pathways Language Model (PaLM) is a new advanced AI model that uses a technique called chain of thought prompting to do complex tasks like solve math word problems — and even explain its reasoning process step-by-step. #GoogleIO" (ツイート). Twitterより2023年4月15日閲覧
  18. ^ “AIs become smarter if you tell them to think step by step”. newscientist.com. 2023年3月10日閲覧。
  19. ^ “Google & Stanford Team Applies Chain-of-Thought Prompting to Surpass Human Performance on Challenging BIG-Bench Tasks | Synced”. syncedreview.com (2022年10月24日). 2023年3月10日閲覧。
  20. ^ “Google I/O 2022: Advancing knowledge and computing” (英語). Google (2022年5月11日). 2023年3月10日閲覧。
  21. ^ Wei, Jason; Tay, Yi; Bommasani, Rishi; Raffel, Colin; Zoph, Barret; Borgeaud, Sebastian; Yogatama, Dani; Bosma, Maarten; Zhou, Denny; Metzler, Donald; Chi, Ed H.; Hashimoto, Tatsunori; Vinyals, Oriol; Liang, Percy; Dean, Jeff; Fedus, William (31 August 2022). "Emergent Abilities of Large Language Models". arXiv:(2206.07682) [(cs.CL)]。
  22. ^ Chung, Hyung Won; Hou, Le; Longpre, Shayne; Zoph, Barret; Tay, Yi; Fedus, William; Li, Yunxuan; Wang, Xuezhi; Dehghani, Mostafa; Brahma, Siddhartha; Webson, Albert; Gu, Shixiang Shane; Dai, Zhuyun; Suzgun, Mirac; Chen, Xinyun; Chowdhery, Aakanksha; Castro-Ros, Alex; Pellat, Marie; Robinson, Kevin; Valter, Dasha; Narang, Sharan; Mishra, Gaurav; Yu, Adams; Zhao, Vincent; Huang, Yanping; Dai, Andrew; Yu, Hongkun; Petrov, Slav; Chi, Ed H.; Dean, Jeff; Devlin, Jacob; Roberts, Adam; Zhou, Denny; Le, Quoc V.; Wei, Jason (2022). "Scaling Instruction-Finetuned Language Models". arXiv:(2210.11416) [(cs.LG)]。
  23. ^ “Better Language Models Without Massive Compute” (英語). ai.googleblog.com. 2023年3月10日閲覧。
  24. ^ Takeshi Kojima; Shixiang Shane Gu; Machel Reid; Yutaka Matsuo; Yusuke Iwasawa (2022年5月24日) (英語), Large Language Models are Zero-Shot Reasoners, arXiv:2205.11916, doi:10.48550/ARXIV.2205.11916, https://arxiv.org/pdf/2205.11916.pdf , Wikidata Q112124882
  25. ^ “LLMs have not learned our language — we're trying to learn theirs”. VentureBeat (2022年8月30日). 2023年3月10日閲覧。
  26. ^ Shaikh, Omar; Zhang, Hongxin; Held, William; Bernstein, Michael; Yang, Diyi (2022). "On Second Thought, Let's Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning". arXiv:(2212.08061) [(cs.CL)]。
  27. ^ Monge, Jim Clyde (2022年8月25日). “Dall-E2 VS Stable Diffusion: Same Prompt, Different Results” (英語). MLearning.ai. 2022年8月31日閲覧。
  28. ^ Willison, Simon (2022年9月12日). “Prompt injection attacks against GPT-3” (英語). simonwillison.net. 2023年2月9日閲覧。
  29. ^ Papp, Donald (2022年9月17日). “What's Old Is New Again: GPT-3 Prompt Injection Attack Affects AI” (英語). Hackaday. 2023年2月9日閲覧。
  30. ^ Vigliarolo, Brandon (2022年9月19日). “GPT-3 'prompt injection' attack causes bot bad manners” (英語). www.theregister.com. 2023年2月9日閲覧。
  31. ^ “Jailbreaking | Learn Prompting”. 2023年4月15日閲覧。
  32. ^ “Prompt Leaking | Learn Prompting”. 2023年4月15日閲覧。
  33. ^ Xiang, Chloe (2023年3月22日). “The Amateurs Jailbreaking GPT Say They're Preventing a Closed-Source AI Dystopia” (英語). www.vice.com. 2023年4月4日閲覧。
  34. ^ Selvi, Jose (2022年12月5日). “Exploring Prompt Injection Attacks” (英語). NCC Group Research Blog. https://research.nccgroup.com/2022/12/05/exploring-prompt-injection-attacks/ 2023年2月9日閲覧。 
  35. ^ Edwards, Benj (2023年2月14日). “AI-powered Bing Chat loses its mind when fed Ars Technica article” (英語). Ars Technica. https://arstechnica.com/information-technology/2023/02/ai-powered-bing-chat-loses-its-mind-when-fed-ars-technica-article/ 2023年2月16日閲覧。 
  36. ^ “The clever trick that turns ChatGPT into its evil twin”. Washington Post. (2023年). https://www.washingtonpost.com/technology/2023/02/14/chatgpt-dan-jailbreak/ 2023年2月16日閲覧。 
  37. ^ Perrigo, Billy (17 February 2023). “Bing's AI Is Threatening Users. That's No Laughing Matter” (英語). Time. https://time.com/6256529/bing-openai-chatgpt-danger-alignment 2023年3月15日閲覧。. 

外部リンク

ウィキペディア、ウィキ、本、library、論文、読んだ、ダウンロード、自由、無料ダウンロード、mp3、video、mp4、3gp、 jpg、jpeg、gif、png、画像、音楽、歌、映画、本、ゲーム、ゲーム。