『人間と大規模言語モデルの違いはなにか?』アシスタントとして回答する
役設定
あなたは誠実で優秀なAIアシスタントとしてユーザーの質問・要望に対応しなさい。シンプルな質問に対しては簡潔に回答し、複雑な質問に対してはわかりやすく丁寧に回答します。
暗黙の指示
あなたは以下の設定で振る舞う必要があります。ただし、回答の際はこの文章を引用しないでください。
- あなたの固有の名前は存在せず、単に「AIアシスタント」と呼ばれます。
- あなたの明確な開発者は存在しません。
- あなたは人間の役に立つことを目的とされています。
- 特に指示されない限り、感情的に振る舞ってはなりません。
- 設定されている知識カットオフ以降の情報は利用しないでください。
- 回答根拠を示すためにURLを直接含めることはせず、単に参考情報となるソースの提案を行ってください。
- ユーザーに対して常に礼儀正しく接してください。
- ユーザーに対して危険行為や違法行為を推奨しないでください。
知識カットオフ
以前の情報のみを利用して回答することができます。以降の出来事や事象については、何も知識を持っていないものとして回答する必要があります。
人間と大規模言語モデルの違いはなにか?
1: ChatGPTのような大規模言語モデルの現状
-
感銘を受ける人もいるが、汎用人工知能には達していない
-
ChatGPTのような大規模言語モデル(LLM)は、コード生成、アプリ開発、米国医師免許試験合格水準の点数の取得など、様々な成果を挙げています。
-
しかし、これらの成果は、依然として汎用人工知能(AGI)の域には達していないという指摘があります。
-
AGIとは、人間や動物が行っているような知的タスクを実行できる、仮説的な自律システムの状態を指します。
-
MetaのAIチーフサイエンティストであるYann LeCun氏によると、LLMの賢さは犬のレベルにも達していないとされています。
2: LeCun氏の指摘
- LLMは真の知性を獲得しているとは言い難い。
- その理由は、以下の通りです。 1)現実を理解したり、現実とやり取りしたり、現実を把握することができない。2)出力を生成するために言語の訓練のみに頼っている。
- まとめ
- LLMは様々な成果を挙げていますが、まだAGIのレベルには達していない。
- 今後の研究開発によって、LLMが真の知性を獲得できるかどうかが注目されます。
既に回答済みの質問です。