TL;DR LLMガードレールはLLMの入出力を監視・制御する技術であり、LLMアプリケーションにおける様々な脅威への対抗策になります。しかし、あくまで役割は脅威の緩和・低減であるため、それぞれの脅威に対する根本的な対策をした上で、万が一の事故に備え文字通りガードレールとして導入する必要があります。 本文中では、RAGアプリケーションの利用する外部データベースにプロンプトインジェクションを引き起こすデータが存在し、LLMに対する入力として利用された場合、LLMガードレールで検知する例を紹介しています。しかし、根本的には外部データベースに悪意あるデータが登録されないよう対策すべきです。 このブログではLLMガードレールで対応できる脅威を実際に検証しながら整理し、適切なユースケースを議論します。 はじめに こんにちは、GMO Flatt Security株式会社所属のセキュリティエンジニア滝上
Devin, Coding Agent (Github Copilot), Codex (OpenAI) やJules (Google)のような、バックグランド動作するコーディングエージェントが続々と発表されて、ついに先日のAnthropicのカンファレンスでClaude Codeでも同様のことが行えるようになりました! Claude CodeのDevin型コーディングエージェントはGithubワークフロー上で動作するのですが、なんと実装のコードがなんと公開されているではありませんか!! プロンプトやGithubのMCP設定等の実装も垣間見ることが出来ます! AIエージェントを開発している身からすると常時稼働型エージェントを作りたいと考えており、バックグラウンド型のコーディングエージェントの動作はどうしても深ぼらねばと思っていた矢先に撒き餌が...! それだけでなく、プロンプト設計自体の完
この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://youtu.be/wjZofJX0v4M?si=9YsuEzHATlhPtpOF Check out our new channel Ufolium https://www.youtube.com/watch?v=wrNCjIjIzuk&pp=ygUj5aSn57Wx6aCY6YG45oyZ44Gu5LuV57WE44G_IHVmb2xpdW0%3D Richard Turner's introduction
こんにちは。データサイエンスチームYAMALEXの@Ssk1029Takashiです。 (YAMALEXについて詳細はこちらをぜひご覧下さい。) www.acroquest.co.jp つい先日Phi-4-reasoningというモデルがMicrosoftから発表されました。 軽量な事前学習済み言語モデル(SLM)も性能が上がってきて利用されることが増えてきています。 SLM は量子化などを施すことで、ハイエンド GPU を使わずとも動かせる点が利点です。 そのため、外に出せないデータを扱ったり、通信できない環境で利用されることが多いとされています。 SLMを扱う場合に必要になるのはFine Tuningになります。 OpenAIのようなLLMとは違い、モデル自体はそこまで強力ではないため、実行させたいタスクを狭めて、そのタスク用にFine Tuningしたモデルを利用することが主流です。
概要 WebコンソールのChatGPTでは入力したデータを学習させない方法として2種類のやり方が提供されています。 設定からChatの履歴を保持しないようにする フォームでオプトアウト申請を行う 前者は簡単にできる一方で、Chatの履歴が使えず不便になります。 後者は申請が英語ですが一度設定すれば良いだけでChat履歴も残ります。 なので後者がおすすめですが、2023/10から申請方法が変わったのでやり方を説明します。 ※OpenAIのAPIを利用する場合は学習されません オプトアウト申請手順 まず↓のサイトにアクセスします。 https://privacy.openai.com/policies Privacy Request Portal Make a Privacy Requestをクリック。 Consumerをクリック。 Do not train on my contentをクリッ
Boost your learning: Test Yourself PDF Learn how to create, train, and tweak large language models (LLMs) by building one from the ground up! In Build a Large Language Model (from Scratch) bestselling author Sebastian Raschka guides you step by step through creating your own LLM. Each stage is explained with clear text, diagrams, and examples. You’ll go from the initial design and creation, to pre
Now that I've finished chapter 3 of Sebastian Raschka's book "Build a Large Language Model (from Scratch)" -- having worked my way through multi-head attention in the last post -- I thought it would be worth pausing to take stock before moving on to Chapter 4. There are two things I want to cover, the "why" of self-attention, and some thoughts on context lengths. This post is on the "why" -- that
FIDスコアとは:画像品質の評価 FIDスコア(Fréchet Inception Distance)は、画像生成モデルの品質を定量的に評価するための指標として重要な役割を果たします。生成された画像がどれだけ現実の画像に近いか、その品質を測るために、FIDスコアの計算方法と解釈について解説します。 FIDスコアの計算方法 FIDスコアの計算は、生成された画像と実際の画像の分布を比較することで行われます。まず、Inception V3モデルを使用して、これらの画像から特徴ベクトルを抽出します。Inception V3は、画像認識において高い性能を持つことで知られる深層学習モデルです。 次に、抽出された特徴ベクトルを用いて、生成画像と実際の画像の分布を多変量正規分布としてモデル化し、これらの分布間のFréchet距離を計算します。Fréchet距離は、2つの分布がどれだけ似ているかを示す指
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く