タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

*programとpromptとcs.LGに関するsh19910711のブックマーク (1)

  • LLMの回答の不確実性を定量化する - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 1. はじめに 大規模言語モデル(LLM; Large Language Model)の導入がビジネスや生活の中で進んできています。LLMを活用する際、LLMが事実と異なる出力をするハルシネーション(幻覚)と呼ばれる現象に悩まされる方も多いと思いますが、ハルシネーションを回避・低減する方法の研究も進んでいます(たとえば、L. Huang et al., 2023をご覧ください)。記事では、LLMの回答の不確実性を定量化し、それをもとにハルシネーションを検出する手法を提案した、Google DeepMindによる論文 To Believ

    LLMの回答の不確実性を定量化する - Qiita
    sh19910711
    sh19910711 2024/08/31
    "epistemic: 正解に関する知識が欠如 + データやモデルのキャパシティが十分でない / aleatoric: ランダム性に起因 + 妥当な回答が複数ある場合など / TriviaQA,AmbigQA,WordNetを使い、ハルシネーションの検出精度を検証" arXiv:2406.02543
  • 1