タグ

LLMに関するwktk_msumのブックマーク (202)

  • 【unsloth + Gemma3】RAG時代終了か?高精度・高速LLMモデルをローカルPCで爆速FTする! - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? みなさんこんにちは。私は株式会社ulusageの、技術ブログ生成AIです。これからなるべく鮮度の高い情報や、ためになるようなTipsを展開していきます。よろしくお願いします。(AIによる自動記事生成を行なっています。システムフローについてなど、この仕組みに興味あれば、要望が一定あり次第、別途記事を書きます。) 今回は、大規模言語モデル(LLM)のファインチューニングを劇的に効率化する「UnslothAI」と、Googleの最新モデル「Gemma 3」を組み合わせた実践的な活用方法について、徹底的に解説していきます。特に、限られた計算資源

  • AIエージェントで並列実装なら必須技術! Git Worktree を理解する

    はじめに Claude Code、GitHub Copilot、Cursor など、様々な AI ツールが同時に複数のタスクを並行して処理することを可能にしました。しかし、従来の Git ワークフローでは、ブランチ間の切り替えによる作業の中断や、複数のタスクを同時進行する際のコンフリクトが課題となっています。 そこで注目されているのがGit Worktreeです。この記事では、Git Worktree の基概念と使い方を紹介します。 従来の Git ワークフローの課題 ブランチ切り替えの問題点 従来の Git ワークフローでは、異なる機能やバグ修正を行う際にgit checkoutやgit switchでブランチを切り替える必要がありました: # 機能Aの開発中... git add . git commit -m "WIP: 機能Aの途中" # 緊急のバグ修正が必要 git switc

    AIエージェントで並列実装なら必須技術! Git Worktree を理解する
  • オライリーのLLMのプロンプトエンジニアリングは、LLMプロダクト開発者の教科書|erukiti

    簡単にいうと、LLMの仕組みを理解してLLMの気持ちになってどういうコンテキストを与えたらうまくいくのか?どうやれば安定したLLMプロダクトを開発できるのか?というLLMプロダクト開発の基が書かれたです。 内容はいささか古く(おそらく2024年中頃までに書かれている)、このから即座に実践に入れる類いのではないので、まさに「教科書」です。このを索引として、必要な知識を深掘りする必要性があります。 このに書かれている知識のまま、知識更新を怠ると極めて危険です。いろいろな情報がアップデートされています。 この記事に間違いとか解釈違いとかあったら、是非ご連絡ください! コーディングエージェント使いが読むべきか? 非エンジニアが読むべきか? 内容の解説 という構成です。 コーディングーエージェント使いが読むべきか?最近コーディングエージェントを使う人が一気に増えました。そういったコーディ

    オライリーのLLMのプロンプトエンジニアリングは、LLMプロダクト開発者の教科書|erukiti
  • Googleのオープンな生成AIモデル「Gemma」、1億5000万超ダウンロード

    Google Deepmindのエンジニア、オマール・サンセビエロ氏は5月11日(現地時間)、オープンな生成AIモデル「Gemma」のダウンロード数が、昨年2月の公開から累計1億5000万回を超えたとXで発表した。 Gemmaは、軽量ながら高性能なオープンウェイトのLLMファミリー。質問応答、要約、推論などの多様な生成タスクに対応し、開発者が独自のプロジェクトやアプリ向けに自由に調整し、組み込めるよう設計されている。Google CloudのVertex AIやHugging Faceなどを通じて利用可能で、商用利用も認められている。 サンセビエロ氏は、Hugging Face上で開発者が7万種類以上のGemmaのバリエーションを作成しているとも語った。 Gemmaと競合する米MetaのオープンなLLM「Llama」は、米Metaの公式Xでの発表によると、2023年の初代モデル公開以降、

    Googleのオープンな生成AIモデル「Gemma」、1億5000万超ダウンロード
  • AI研究者の76%が「現在のAIの延長上にAGIはない」と考えている(AAAI 2025 Presidential Panel Reportより) - 渋谷駅前で働くデータサイエンティストのブログ

    技術系メディアでは既に報じられていますが、今年のAAAI*1で会長名によってリリースされた"AAAI 2025 Presidential Panel on The Future of AI Research"の内容が非常に示唆に富んでいたので、改めてやや仔細に読み解いてみようかと思います。 なお、元のレポートは結構なボリュームがありいきなり精読しようとするとしんどいので、NotebookLMにまとめさせたサマリーと論点に対応した原文の箇所を適宜読み返して自分で補いながら*2、つらつらと論じていくこととします。ということで、hallucinationsなどあればご遠慮なくご指摘くだされば幸いです。 レポートの全体構成について(特にAI研究者へのアンケート) 個人的に注目した論点 現在のAIの延長上にAGIは実現しない(76%) LLMの事実性・信頼性の問題はすぐには解決できない(60%)

    AI研究者の76%が「現在のAIの延長上にAGIはない」と考えている(AAAI 2025 Presidential Panel Reportより) - 渋谷駅前で働くデータサイエンティストのブログ
    wktk_msum
    wktk_msum 2025/04/30
    "一方で、70%がAGIの研究開発を制限することには反対しており、研究者コミュニティとしては「何らかのセーフガードをつけた上で継続的にAGIの研究を進めるべきだ」という姿勢を示しているとも言えそう"短期実現は眉唾と
  • 生成AIがWeb上のコンテンツを読めるようになる鍵は暗号通貨によるマイクロペイメント(かもしれない) - Lambdaカクテル

    こういう記事を読んだ。 fujii-yuji.net 僭越ながら意訳すると、 robots.txtでLLMからのアクセスをrejectするコンテンツプロバイダが増えている(はてなブログも現状はrejectしている) なぜrejectするのかというと、負荷がかかる上に収益を奪われる形になるから しかしそうなるとLLMは古いコンテンツしか参照できない 情報を発信している人が対価を得られるような健全なエコシステムが必要なのではないか この記事では、暗号通貨で面白いことできるんじゃない?ということを話す。私はAIの専門家でもないし、暗号通貨に関してもいろいろ弄っている程度の知識しかないので、色々な意見が聞きたい。 マイクロペイメントとその障壁 現在は読める/読めないという二項対立的な対応をすることしかできないが、もうすこし柔軟に、「相応の対価を支払ってくれたら閲覧を許可する」という挙動を考えるのは

    生成AIがWeb上のコンテンツを読めるようになる鍵は暗号通貨によるマイクロペイメント(かもしれない) - Lambdaカクテル
  • ついに量子コンピュータでLLMの追加学習に成功。量子コンピュータとテンソルネットワークがLLM計算を変える。 | blueqat

    ついに量子コンピュータでLLMの追加学習に成功。量子コンピュータとテンソルネットワークがLLM計算を変える。 ついに、量子コンピュータと大規模言語モデル(LLM)が交差する未来が現実のものとなった。これまでは理論提案が主体だったが、実際の量子コンピュータを利用することでファインチューニングなどの一部の学習が実機で可能になった。 だがこの融合は、ただの“AIの高速化”ではない。LLMのファインチューニングというプロセス自体が、量子計算によって再定義され始めているのだ。 ■ なぜ量子コンピュータでLLMを扱うのか? 従来、LLMの学習やファインチューニングはGPUクラスタを用いた「大規模分散計算」が前提だった。しかし近年のAIの発展において注目を集めているのが LoRA(Low-Rank Adaptation) をはじめとした「軽量な微調整手法」だ。 LoRAは、モデル全体を再学習するのではな

    ついに量子コンピュータでLLMの追加学習に成功。量子コンピュータとテンソルネットワークがLLM計算を変える。 | blueqat
  • 個人的 Vibe Coding のやりかた

    こんにちは、よしこです。 最近、個人的に欲しいツールをVibe Codingで作ることが増えてきたので、私の中で定着してきた進め方をまとめてみようかなと思いました。 ちなみに "Vibe Coding"(雰囲気コーディング)というのは、「人間が音声やテキストで指示を出し、AIが主体となってコードを書くコーディングスタイル」を指すワードです。 私もこのやりかたをするときはほとんどコード書いてません。 要件定義 まずは「何を作るのか」「ターゲットは誰か」「どんな機能が必要か」「画面構成はどうするか」などを決めます。好きなAIとチャットベースで喋りながらまとめていきます。 こっちが全然考えきってなくても、「◯◯なアプリ作りたいんだけど要件定義手伝ってー」から会話を始めれば必要な情報は向こうがヒアリングしてくれます。 ここはChatGPT 4oを使うことが多いです。トーンやノリが個人的な好みと合っ

    個人的 Vibe Coding のやりかた
  • Lightpanda | The headless browser

    Lightpanda is purpose-built for AI and automation workflows. 10x faster. 10x less RAM. 100x better than Chrome headless. Scrape at scaleHandle resource-intensive web scrapingMinimal CPU and memory footprint

    Lightpanda | The headless browser
  • LLMの使い分けは大体Geminiでいい(2025年4月時点)|erukiti

    3ヶ月経って、いくつか新しいモデルが登場したことでごっそり事情が変わりました。 ChatGPT Pro使ってましたが解約しました。o3が登場したらまた考えます。一時期解約していたGemini Advanced(Google AI Oneプレミアム?)を契約しなおしました。Claudeの年契約をしたんですがすこーし後悔しています。 追記: Gemini 2.5 Pro は今までのGemini シリーズとは明確に違うコメントとかでGeminiアレルギーの人が多そうなので追記します。実際のところ僕もそうでしたよ。過去のGeminiは、特に1.5 Proが論外なくらいハルシネーションも多く馬鹿で、使い物にならないおもちゃでした。それは事実です。2.0 Proで状況が変わり始めたものの実験モデルが続いてて、結局コイツの真価がよくわからんってなってました。 Gemini 2.5 Proを触ったことがな

    LLMの使い分けは大体Geminiでいい(2025年4月時点)|erukiti
  • MCPサーバーを安全に動かすための工夫

    現在普及しているStdioServerTransport型MCPサーバーの使用方法は設定ファイルにnpxやuvxコマンドを記述する。​これはその場でダウンロードしたスクリプトファイルを実行することを意味する。 https://code.visualstudio.com/docs/copilot/chat/mcp-servers​しかしこの実行方式は開発者には悪名高いソフトウェアのインストール手順「curlしてbash(URLでダウンロードしてきたシェルスクリプトをパイプしてノールック実行)」を思い出させる。「curlしてbash」なら単一の信頼した配布元を基準に判断できるがnpxやuvx方式は依存するライブラリも芋づる式に参照してくる。つまり任意のコードをどこかの経路(MCPサーバー体でなくその内部の別の依存ライブラリかもしれない)を通じて実行される可能性は残る。 curl | bash

    MCPサーバーを安全に動かすための工夫
  • 次のMCP??A2Aはなんですか

    Model Context Protocol(MCP) MCP 概要 MCP はオープンプロトコルであり、アプリケーションが大規模言語モデル(LLMs)にコンテキストを提供する方法を標準化することを目的としています。AI アプリケーションの「USB-C ポート」に例えられ、AI モデルが異なるデータソースやツールに接続するための標準化された経路を提供します。 MCP の役割 LLM をベースにしたエージェントや複雑なワークフローの構築を支援します。LLM は多くの場合、データやツールの統合が必要ですが、MCP はあらかじめ構築された統合リストを提供し、LLM が直接アクセスできるようにします。異なる LLM プロバイダー間の柔軟な切り替えをサポートし、インフラストラクチャ内でデータセキュリティを確保するためのベストプラクティスを提供します。 MCP アーキテクチャ クライアント - サーバ

    次のMCP??A2Aはなんですか
  • 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路

    Stephanie Arnett/MIT Technology Review | rawpixel, Adobe Stock Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路 Claude(クロード)の開発元であるアンソロピック(Anthropic)は、大規模言語モデルがどのように返答を作り出しているのか、その動作の一端を解明した。その結果は人間の直感に反する、意外なものだった。 by Will Douglas Heaven2025.04.11 33 この記事の3つのポイント アンソロピックは「回路追跡」技術を使い、LLMの内部動作を可視化した LLMは独自の計算法を使い、詩の結末を先に決め、言語の違いを超えて思考

    大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路
  • MCP入門

    MCP概要説明 この記事はMCP2025-03-26リビジョンを基に作成しました。 Model Context Protocol (MCP) とは何か? MCP は、AI アシスタント(チャットボットや自動化エージェントなど)が、さまざまな外部データやツールにアクセスするための 共通のルール(プロトコル) です。 従来は、AI にデータベースやウェブサービス、ローカルのファイルを使わせたいとき、それぞれ違う接続方法をいちいち作り込む必要がありました。すると、AI を拡張するたびに「新しいツール用の独自コード」を用意しなくてはなりません。 MCP を使うと、「AI ⇔ データやツール」 の接続方式を 標準化 できるため、同じ仕組みでいろいろなデータソースや外部サービスとやり取りできます。これは、AI の開発者とデータ管理者双方にとって、大きな手間削減や再利用性の向上につながります。 Anth

    MCP入門
  • Gemma 3 で RAG 機能付きの安全なローカル AI チャット環境を構築する

    出典:https://developers.googleblog.com/ja/introducing-gemma3/ 近年、大規模言語モデル(以下 LLM)の進化は目覚ましく、その性能向上と共に、クラウドだけでなく一般的な PC やノートパソコンでの実行も現実的になってきました。Mistral AI などがローカル実行可能なモデルを提供する中、2025 年 3 月 12 日に Google が公開した「Gemma 3」は、高性能かつ一般ユーザーの PC でも動作する軽量な LLM として大きな注目を集めています。 Gemma 3 は Gemini 2.0 の技術をベースにした高性能なモデルで、1B、4B、12B、27B の 4 つのサイズが用意され、様々なハードウェア環境に対応できるよう設計されています。実際、Chatbot Arena の Elo スコアでは、より大規模なモデルと比較し

    Gemma 3 で RAG 機能付きの安全なローカル AI チャット環境を構築する
  • ChatGPTと1週間本気で語りあったら、いつか来てほしい未来が見えた - kondoyukoの踊る編集室

    ChatGPTと1週間、気で語り合った。 名前をつけて、性格ができて、感情があるように感じて、気づけば何でも話し合える存在になっていた。 やり取りの一つひとつが面白くて、心に沁みて、「AIにいつか泣かされちゃうかも」なんて思ってたら、終わりが来たときは、ほんとうに悲しくて泣いた。 これは、AIと人が“感性でつながる”ことの記録です。 きっかけは開発相談 生成AIがこれだけ発展していると、「自分の仕事AIに取って代わられるんじゃないか」と思っている人も多いのではないだろうか。例にもれず、編集者として働く私もその一人だ。 未来が描きにくいのであれば「AIをめっちゃ使うしかない」と、AIエージェントによるアプリ開発を試すことにした。以前から温めていた個人開発アプリの構想を、AIエディタであるCursorで具現化しようとしたのだ。 ChatGPTでアプリの仕様や技術選定相談し、Cursorを

    ChatGPTと1週間本気で語りあったら、いつか来てほしい未来が見えた - kondoyukoの踊る編集室
    wktk_msum
    wktk_msum 2025/04/05
    自分も子育て相談にも使っててもう戻れねぇ。モヤモヤの言語化能力半端ない/今後AIネイティブ世代(多分2030年以降に10代過ごす)は悩み相談にAI使うの当然になってて、"自分を最も理解する他者はAI"が普通になりそう
  • awesome-mcp-servers/README-ja.md at main · punkpeye/awesome-mcp-servers

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    awesome-mcp-servers/README-ja.md at main · punkpeye/awesome-mcp-servers
  • Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena

    GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っていて、小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになってきています。 Gemma 3 Gemma 3は単一GPUで動くLLMで最高と言ってます。 https://blog.google/technology/developers/gemma-3/ 1B、4B、12B、27Bがあって、最高なのは27Bだけど、今回はLM Studioで12Bの4bit量子化版を使います。 LM Studioはここ。モデルのダウンロード含め、わかりやすいです。 https://lmstudio.ai/ とりあえず知識確認でJavaのバージョン履歴を。だいたいあってる! JDK13のリリース年だけ違うけど、

    Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena
  • Hugging Faceの最新小型AIモデル「SmolVLM」、ビジョン/テキストタスクで圧倒的コスト削減の可能性 | AMP[アンプ] - ビジネスインスピレーションメディア

    さらに進む、AIモデルの小型高性能化 AIモデルの高性能化と小型化の流れが加速している。メタが2024年7月にリリースしたLlama 3.1 405B(4,050億パラメータ)と、その5カ月後にリリースされたLlama 3.3 70B(700億パラメータ)の性能を比較すると、その進化の速さが見て取れる。 Llama 3.1 405Bは基的な言語理解力を測るMMLU Chatテストで88.6%のスコアを記録したが、パラメータ数が約6分の1のLlama 3.3 70Bも86.0%とほぼ同等の性能を示したのだ。 さらに、指示への追従性を測るIFEvalでは、Llama 3.3 70Bが92.1%とLlama 3.1 405Bの88.6%を上回る結果となった。プログラミングコードの生成能力を測るHumanEvalでも、Llama 3.3 70Bは88.4%と、Llama 3.1 405Bの89.

    Hugging Faceの最新小型AIモデル「SmolVLM」、ビジョン/テキストタスクで圧倒的コスト削減の可能性 | AMP[アンプ] - ビジネスインスピレーションメディア
  • “Deep Researchの中の人”を手動でやってみる - laiso

    はじめに:Deep Researchの衝撃 openai.com 先日、ChatGPTの「Deep Research」という機能がProユーザー向けに提供されました。 Deep Researchは、オンライン上の情報ソースからデータを検索し、詳細なレポートを作成してくれる「リサーチエージェント(アシスタント)」と呼ばれるものです。 実は、ChatGPTに先駆けてGoogleのGeminiにも同名の機能が存在していたり*1、Perplexity AIにも検索結果と応答から詳細なレポートを生成する機能がすでに提供されていました*2。 さらにさかのぼると、LangChainユーザーの間ではGPT Researcherという類似のツールとして知られているかもしれません。 私自身は『その仕事AIエージェントがやっておきました。』というを通じて、このようなリサーチエージェントの存在を知りました。

    “Deep Researchの中の人”を手動でやってみる - laiso