タグ

LLMに関するheguroのブックマーク (4)

  • LLMの日本知識を測るのに山口県について聞くのがよかった - きしだのHatena

    「山口県の特徴は?」でLLMの日語知識が割と測れる気がしたので16GB VRAMで動く範囲でいくつかオープンモデルを試しました。 結論としては、日語でのチャットなど日語表現力が必要なら、オープンモデルではGemma3一択。 法律や商慣習に関わる処理や観光地での案内に使うなど、確実な日知識が必要な場合、また1GB程度のサイズで日語応対する場合などはLLM-jp-3がおすすめです。 Gemma3、Qwen3、ABEMA Qwen2.5 32B Japanese、LLM-jp-3、Sarashina2.2を試していきます。 Gemma3 まずGemma3。27Bで見てみます。 「石見銀山」「津和野の石州和紙」と、島根がちょっと混じっていますが、どちらも「萩・石見空港」だったり「萩・津和野」と山口県の萩市の知名度を借りたマーケティングが行われがちなので、ちょっと仕方ない。 他は変なところ

    LLMの日本知識を測るのに山口県について聞くのがよかった - きしだのHatena
    heguro
    heguro 2025/05/30
  • AI破産を防ぐために - LLM API利用におけるEconomic DoSのリスクと対策 - GMO Flatt Security Blog

    はじめに こんにちは、GMO Flatt Security株式会社セキュリティエンジニアの松井(@ryotaromosao)です。 近年、LLM(大規模言語モデル)が目覚ましい進化を遂げており、それを利用したLLMアプリケーションが急速に増加しています。特に、AIチャット機能やエージェント機能が既存のサービスに搭載されるのを目にする機会も多いと思います。 しかしながら、LLM APIを用いたアプリケーションを提供する事業者にとって、「高額なAPIの利用料金を請求されたらどうしよう」という不安は大きいのではないでしょうか。 私も自社開発のセキュリティ診断AIエージェントのTakumiを使って脆弱性診断やリサーチ活動をしていますが、そのLLM APIの利用料金にはいつもビクビクしています。 まだ最適化が為されていなかった、Takumiの開発中の話ではありますが、脆弱性のリサーチ中に「このリポジ

    AI破産を防ぐために - LLM API利用におけるEconomic DoSのリスクと対策 - GMO Flatt Security Blog
    heguro
    heguro 2025/05/27
  • LLMにJSONやソースコードを出力させるStructured Generationの技術 - NTT Communications Engineers' Blog

    こんにちは、イノベーションセンターの加藤です。この記事では、大規模言語モデル(LLM)にJSONやソースコードを正しく出力させるための生成手法であるStructured Generationについて紹介します。 Structured Generationとは パーサーを用いた制約手法 正則言語とは 正則言語のStructured Generation 文脈自由言語とは 字句解析について 正則言語+文脈自由言語のStructured Generation まとめ Structured Generationとは 大規模言語モデル(LLM)はよくチャットボットとしての活用が目立ちますが、LLMの入出力を外部のプログラムに繋ぎ込むことでより高度な自然言語処理システムを作ることができます。 例えばOpenAIのCode Interpreter1はLLMをPythonの実行環境と接続することで、ユーザ

    LLMにJSONやソースコードを出力させるStructured Generationの技術 - NTT Communications Engineers' Blog
  • 高木浩光@自宅の日記 - ChatGPT o3-miniとGDPRの理解についてバトルした

    ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ

  • 1