タグ

LLMに関するstealthinuのブックマーク (367)

  • 徹底解説!DifyとChatGPTのAPI連携|mito

    はじめにDifyを使えば、ノーコード・ローコードで手軽に生成AIアプリを構築できます。 記事では、Difyの基情報から始め、料金プランやAPI設定、実際の利用方法まで詳しく解説していきます。AIアプリ開発に興味がある方はぜひ活用してみてください。 Difyとは?Difyは、ノーコード・ローコードで生成AIアプリを構築できるプラットフォームです。LangGenius,Inc.が提供複数のLLM(大規模言語モデル)を組み合わせたり、外部文書を読み込んでRAG(Retrieval-Augmented Generation)を簡単に活用できる機能を備えています。 オープンソースの開発サービスです。 Difyの料金体系Difyは基的に無料で使用できますが、チームでの協力や高度な機能を活用する場合には費用が発生します。 フリープランの内容アプリ公開数:最大10個 ベクトルデータ保存容量:最大5M

    徹底解説!DifyとChatGPTのAPI連携|mito
    stealthinu
    stealthinu 2025/02/26
    difyでWebから見るログのタイムゾーンどこで設定できるんだ?と思ったら実はユーザの設定の「言語」にタイムゾーン設定があるのね。
  • Clineに自分をエミュレートさせて技術記事を代筆させてみたらビビった

    なんか驚き屋っぽくてアレなんだけど、今回はさすがに驚く権利があると思うので、至急記事を書く。 やろうとしたこと 毎回手元の検証結果から技術記事を構成するのがだるい 自分のブログを適当に読ませておいて、その構成と文体を真似させればいいのでは 手元に mizchi/zenn というリポジトリがあり、ここに zennにポストする原稿を管理している。 $ tree ./articles ./articles ├── 1c35fdcc77065c02f631.md ├── 3e4742e24f2ca0118f70.md ├── 8a017097d3994ddc0a85.md ├── ai-code-generation.md ├── ai-programmer.md ├── ai-team-mate.md ├── antipattern-of-tournament-score-sheet.md ├─

    Clineに自分をエミュレートさせて技術記事を代筆させてみたらビビった
    stealthinu
    stealthinu 2025/02/25
    自分の書いているブログ記事を参照させてどういう方向性の記事を書く人物かを抽出し、そのペルソナと元ネタ文を食わせて技術文書を書かせている。これでベースを書いて修正すれば良い。
  • オタクの気持ち悪い会話生成で見るLLMの差|品田遊(ダ・ヴィンチ・恐山)

    いま、大規模言語モデル(LLM)にはChatGPTの他にGemini、Claudeなど多数の競合がある。それらはコーディング性能や数学能力、推論力などで一長一短であるが、今回はそれを「オタクの会話」の生成で比較してみる。 ◯プロンプト:エヴァについて盛り上がるオタクの気持ち悪い会話を書いてみて ■ChatGPT 4o場所:都内の某カフェ 登場人物: A(アスカ推し):90年代オタク気質。やたらと「庵野の意図」を考察しがち。 B(レイ推し):冷静なようでいて、こじらせがち。オタク特有の早口。 C(マリ推し):新劇場版世代。旧作にも理解を示すが、新しいものを肯定したい。 D(ミサト推し):おっさん気質。酒飲みながら語るタイプ。 会話開始A「いや、エヴァってさぁ、結局“親との和解”の話なんだよ」 B「でもそれって旧劇の時点では達成されてなくない? だって最後、あの“気持ち悪い”で終わるわけじゃん

    オタクの気持ち悪い会話生成で見るLLMの差|品田遊(ダ・ヴィンチ・恐山)
    stealthinu
    stealthinu 2025/02/20
    GPT-4oがだいぶ良いな。こういうのやらせたらClaude-3.5-sonnetが一番だと思ってた。sonnetさんは得意すぎてやり過ぎちゃってる感があるのかもしれん。
  • 君たちはCursorを本当に使えているか

    2025/03/27追記 Cursor側のアップデートが1ヶ月で進んでいるので、以下追記しました。 記事の内容を踏まえたあとに読むとよいかと思います! はじめに こんにちは。Builtoという会社で代表 & エンジニアをしている冨田です。 私たちはマネジメントとタスク管理を圧倒的にサポートするAIエージェントを開発しています。 開発にもAIをフル活用しており、そこで得られた知見を共有したいと思います。 具体的には、経験3年以上の現役ソフトウェアエンジニア(生成AIのない時代からコードを書いてきた方々)をターゲットに、番運用レベルの大規模コードベースでもCursorを活用しコーディング時間を 1/3〜1/5 に縮めている手法をお伝えします。 仕様策定やアプリの機能にもLLMをフル活用していますが、今回は実装にフォーカスします! (なお記事は中級者以上向けのため、まだCursorに触れた

    君たちはCursorを本当に使えているか
    stealthinu
    stealthinu 2025/02/18
    CursorでcursorrulesとNotePadsを使うと便利というのが参考になった。
  • rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena

    DeepSeek R1が話題になってだいぶたちますが、日語対応モデルも出てきてますね。 そして2/15にrinnaからDeepSeek R1の蒸留モデルが出ていて、これがかなりいい感じなのでびっくりしてます。驚き屋してます。 DeepSeek R1では、こっそりと回答方針を決めるフェーズがあるのだけど、そこがなかなか筋がいい。 というか、作り方もなんだかすごいので最後に解説してます。 Qwen2.5とDeepSeek R1を利用した日語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社 ※ 2/18追記 こういう記事を書くときに「これがローカルで動いてすごい」のように書くんですが、ここではローカルで動いてすごいということは書いてなく、普通にちゃんと答えがでてその内容がすごいという風になってきてますね。追記ここまで。 CyberAgentからも

    rinnaのDeepSeek R1蒸留モデルがすごい - きしだのHatena
    stealthinu
    stealthinu 2025/02/18
    rinnaのR1上流モデルはだいぶ凝った作りになってるのだな。試してみる。
  • 私のシンプルCursor活用方法|ニケちゃん

    こんにちは、ニケです。 皆さん、Cursor 使っていますでしょうか? 私はそろそろ使用歴1年半くらいになります。 5ヶ月前にこんな記事を書いたのですが、AI時代のコーディングアシスタントの進化は早く、今はもうこの時とは全く異なる使い方をしているので改めて紹介したいと思います(一部被っている内容もあります)。 なお、AIコーディングアシスタントにはその他にも、Github CopilotやCline、Windsurfなどがありますが、これらのコーディングツールはCursorほど使ったことがないため、今回の記事では紹介・比較はしません。 XのTLでもいろんな宗派を見かけるので、「どれを使ったら一番楽できるんだ?」とは考えずに、取り敢えず一つのエディタ・ツールを使い倒すことをオススメします。 ⚠ 以降で紹介する方法は個人的にハマっている方法なので、これがベストではないです。1つの参考として見て

    私のシンプルCursor活用方法|ニケちゃん
    stealthinu
    stealthinu 2025/02/17
    ニケちゃんさんComposerのAgentメインに鞍替えされたんだ。Composerだと一気に色々変更されすぎてどうかと思ってたが慣れていくしか無いか。
  • AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話

    丹波 高山寺 【尊御開帳】祐弘 @TanbaKosanji AIが普及すれば人間は仕事当に減るのでしょうか そこで思い出したのは、戦後に農村の生活改善、家事軽減の一つとして、かまどを廃してガスを引こうという運動に、多くの主婦からの反対があったという話 その理由は火の番が唯一の休憩時間であり、かまどが無くなれば別の仕事が増えるからだと 2025-02-15 15:42:15

    AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話
    stealthinu
    stealthinu 2025/02/17
    今回のAIの件はこれまでのものとはまったく質の違うものであることがわかってない人が多すぎる。人より知能の高い知能が出来たら人の知能は不要になるという話なのに。
  • gemini-2.0-flashが賢くてコスパがよすぎる件

    この記事はLLMをAPIで使うこと前提の記事です。 AI エージェント開発ハッカソン参加記事:Gemini 2.0 Flash で技術文書分析ツール「Tascario」を作ってみたの、技術的補足記事です。 APIでLLMを使っている皆さん gemini-2.0-flash を使っていますか?APIで使う限り、かなり性能が高く、コスパも良すぎて、APIならこれ一択で良いのでは?とすら思い始めています。

    gemini-2.0-flashが賢くてコスパがよすぎる件
    stealthinu
    stealthinu 2025/02/13
    一旦中間言語化することでCoTしてるのと同じ効果でより高精度な答えを出せるという手法。そのくらいの工夫をしてもAPI叩くならGemini-2.0-flash使うほうがお得ということらしい。
  • 生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 2025年2月7日 東京大学大学院工学系研究科准教授 渡邉 正峰 1970年、千葉県生まれ。東京大学大学院工学系研究科博士課程修了。専門は神経科学。著書に”From Biological to Artificial Consciousness” (Springer)、『脳の意識 機械の意識』(中央公論新社,2017)、『理工学系からの脳科学入門』(共著、東京大学出版会, 2008)など。近著は『意識の脳科学 「デジタル不老不死」の扉を開く』(講談社,2024)、『意識はどこからやってくるのか』(共著、早川書房, 2025)。 自らの「意識」の存在を疑ったことがある、という人はそう多くないでしょう。また、自らの意識の存在に疑問を差し挟む余地がないように、仕事や生活を共にする「他者」にも意識が

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)
    stealthinu
    stealthinu 2025/02/07
    そう!もはやAGIの地点にいるのにまだAI(LLM)に「意識」を持ったという状況にはできてない。AGI達成するときにはすでに「意識」が存在してると思ってたわ。何が足らんのかを知りたい。
  • AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena

    ChatGPT O1やDeep Researchなどがすごいパフォーマンスを出してきていますね。もう仕組み上も単にLLMではなくAIとしか言えなくなってきています。 そんなAIが進化して、プログラミングをAIがやってくれるようになると、そのプログラムの確認をどうするんだって話があります。業務システムの開発では、プログラム読めない人がプログラムの生成に携わったりするようになって、できてきたプログラムが読めないってなる。 問題では?と思ったのだけど、そもそも業務システムが不要になりますね。 小さい堂で、伝票とかも取らずにちゃんとまわす人とかいますね。記憶力のいい人だと、昼のラッシュでもちゃんと覚えてまわせそうです。 ファミレスでバイトしてたとき、調子がいいときだと割と全部の注文を覚えれてたりしたので、それなりにまわせる人が多そうです。 そして、AIであればもっと記憶力よく考えてまわせるので、

    AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena
    stealthinu
    stealthinu 2025/02/05
    ブコメ上位がなんかなあと。つい2年前まではLLMでここまでAIが実現されるとはみんな思ってなかったよね。その後の進化もだいぶ速いよ?もうChatGPT以前の頃を覚えてないのかしら…
  • 高木浩光@自宅の日記 - ChatGPT o3-miniとGDPRの理解についてバトルした

    ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ

    stealthinu
    stealthinu 2025/02/03
    わかる!!論理的矛盾とか根拠になってない根拠を詰めても絶対に自分のミスを認めないんだよね。なんなのあの頑固さ?やつらには感情が無いはずなのになぜ意固地な行動とるんだろ?
  • Sakana AI

    新手法「TAID」によって学習された小規模日語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計

    Sakana AI
    stealthinu
    stealthinu 2025/01/31
    1.5Bでここまで上がってきているのすごいな。最終的には1.5BでChatGPT-3.5なみの性能くらいまでいけたりするんかな。
  • https://unsloth.ai/blog/deepseekr1-dynamic

    stealthinu
    stealthinu 2025/01/31
    DeepSeek-R1の1.58bitのやつ。それでも131GB必要。1.73bitでGoodってなってて160GBくらいあるとローカルでR1がだいたいフル性能で動かせるっぽい。
  • Dario Amodei — On DeepSeek and Export Controls

    January 2025 A few weeks ago I made the case for stronger US export controls on chips to China. Since then DeepSeek, a Chinese AI company, has managed to — at least in some respects — come close to the performance of US frontier AI models at lower cost. Here, I won't focus on whether DeepSeek is or isn't a threat to US AI companies like Anthropic (although I do believe many of the claims about the

    Dario Amodei — On DeepSeek and Export Controls
    stealthinu
    stealthinu 2025/01/31
    色々な点で興味深い。本題ではないが、LLMは4倍/年の性能アップ、2026から27で完全なAGIが達成すると見てるとか、参考になる。
  • 推論時にも学習できるLLM!? 「Titans」|はまち

    Google Researchからtransformerアーキテクチャの記憶メカニズムを抜的に改善するモデルアーキテクチャに関する論文が公開されていました。とても興味深かったので概要をまとめてみました。 理解不足も多々あるので、興味を持たれた方はぜひ原文をご確認ください。また、間違いなどあればコメントいただけると幸いです。 1.概要現状の大規模事前学習言語モデル(LLM)の多くは推論時(テスト時)には学習は行われず、モデル使用時はあくまでも「推論専用」の存在でした。 「Titans: Neural Long-Term Memory for Enhanced Sequence Modeling」では、テスト時(オンライン学習フェーズ)にも新しい情報で学習内容をアップデート、蓄積し、従来のモデルアーキテクチャでは実現が難しかった記憶の忘却が可能な「Neural Memory(ニューラルメモリ

    推論時にも学習できるLLM!? 「Titans」|はまち
    stealthinu
    stealthinu 2025/01/27
    長期記憶と短期記憶を持つようにして推論時にも「学習」ができるようにしている。学習というよりコンテキストの記憶と言ったほうが正しそう。それが「学習」なのかもしれんが。
  • J-Moshi

    語Full-duplex音声対話システムの試作 Paper (To appear) | Model | Code 大橋 厚元,飯塚 慎也,姜 菁菁,東中 竜一郎 名古屋大学 大学院情報学研究科 概要: 人間同士の対話における発話のオーバーラップや相槌など,同時双方向的な特徴をモデル化できるfull-duplex音声対話システムは,近年注目を集めている.しかし日語においては,full-duplex音声対話システムはほとんど見られず,full-duplex音声対話システムの開発に関する知見は不足している.研究では,英語における主要なfull-duplex音声対話システムであるMoshi[1] をベースとすることで,日語で利用可能な最初のfull-duplex音声対話システム J-Moshi[2] を試作し,公開する.

    stealthinu
    stealthinu 2025/01/25
    この自然さは全二重にしてあることがキモなんだと思う。
  • ブログ移設のお知らせ

    このブログは移設されました新しいURLは blog.sitocha.cc です

    ブログ移設のお知らせ
    stealthinu
    stealthinu 2025/01/14
    こないだからCoolCline+Deepseek-V3試しだしたとこだけど確かにこっちいけるならこっちのほうがよいな。いま無駄にGithub Coplilot契約してるし。そのうち規制されそうではあるが…
  • AIマルチエージェントの設計・構築(入門編)|はち

    はじめに日企業の多くが、これまで生成AIの検証としてRAG(検索拡張生成)を試してきた状況にあると思います。 その次のトレンドとして、AIエージェントやマルチエージェントシステムなどが来ると感じています。それに備えて、多くの企業・組織から色々なフレームワークやサービスが展開されてきています。 しかし、ReActを使うようなAIエージェントや、マルチエージェントの構築に関して業界全体でまだまだ経験が乏しく、ベストプラクティスが固まっていない状況なのではないかと思います。 私自身の経験や論文の内容などを元に、現時点での マルチエージェントシステムのイメージ 設計・構築のポイント などをわかりやすくまとめようというのがこの記事の目的となります。 1. マルチエージェントシステムとは1-1. これまでこれまで検証・構築されてきた多くのLLMアプリケーションは、RAGのようなユースケースで主に生成

    AIマルチエージェントの設計・構築(入門編)|はち
    stealthinu
    stealthinu 2025/01/09
    現時点(2024-11)での「エージェント」システムについてのまとめ。今後エージェント的なシステムがメインになっていきそうだが、o3レベルになったときにはまた少し変わりそう。
  • NVIDIA Puts Grace Blackwell on Every Desk and at Every AI Developer’s Fingertips

    CES—NVIDIA today unveiled NVIDIA® Project DIGITS, a personal AI supercomputer that provides AI researchers, data scientists and students worldwide with access to the power of the NVIDIA Grace Blackwell platform. Project DIGITS features the new NVIDIA GB10 Grace Blackwell Superchip, offering a petaflop of AI computing performance for prototyping, fine-tuning and running large AI models. With Projec

    NVIDIA Puts Grace Blackwell on Every Desk and at Every AI Developer’s Fingertips
    stealthinu
    stealthinu 2025/01/08
    CUDAが動いて200Bのモデルが動かせるAIターゲットのPC。128GBのユニファイドメモリ積んでて2台合わせて405Bのモデルさえ動く!そんでお値段$3000なので、これはすごくほしい。
  • LLMがオワコン化した2024年

    当ニュースレターは2023年を「SaaSがオワコン化した年」と位置づけたが、2024年は早くもAIが終わった一年であった。少なくとも大規模言語モデル(LLM)そのものの発展を、物珍しそうに追いかける時期は過ぎた。生成AIが今後どこまで賢くなるかはもちろん未知数である。しかし、既に業務で十分に役立つレベルにある現行モデルのコストが今後も下がっていくことは確実だ。 The cost of GPT-4 APIs at launch in Mar 2023 was roughly ~$30 per 1m tokens. Seeing Deepseek V-3 APIs at ~$1 per 1m tokens today. For AI application companies, cost of "intelligence" is falling significantly faster tha

    LLMがオワコン化した2024年
    stealthinu
    stealthinu 2025/01/06
    ぜんぜん本質的な部分見えてないのでは。OpenAIやGoogle、Anthropicがフロンティアモデル作ってるのはそんな短期的な儲けのためではないでしょう。ASIとシンギュラリティに最初に到達するのが目的だろうから。