サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Google I/O
qiita.com/moritalous
@mcp.tool() def use_aws( service_name: str, operation_name: str, label: str, region: str = None, parameters: dict = {}, profile_name: str = None, ) -> str: """ Make an AWS CLI api call with the specified service, operation, and parameters. All arguments MUST conform to the AWS CLI specification. Should the output of the invocation indicate a malformed command, invoke help to obtain the the correct
完全に便乗投稿です。 こちらを先にお読みください。 簡単にエージェントが作れます。間違いないです。 追加で、いくつか試してみたのでよければ御覧ください Bedrockのモデルやリージョンをカスタマイズする デフォルトでは、オレゴン(us-west-2)リージョンのClaude 3.7 Sonnetが使われるのですが、リージョンやモデルをカスタマイズしたい場合はこんな指定をします。 バージニア北部(us-east-1)リージョンのAmazon Nova Premierを使用する場合 import boto3 from strands import Agent from strands.models import BedrockModel session = boto3.Session( region_name="us-east-1", ) bedrock_model = BedrockMod
見つけました。 Log Analyzer with MCP 構成図がありました。 シンプル! どんな機能があるかというと、 CloudWatch ロググループを参照および検索する CloudWatch Logs Insights クエリ構文を使用してログを検索する ログの要約を生成し、エラーパターンを特定する 複数の AWS サービス間でログを関連付ける Claude のようなアシスタント向けに AI 最適化されたツール やってみましょう。 インストール GitHubからCloneしてライブラリーを取得します。 git clone https://github.com/awslabs/Log-Analyzer-with-MCP.git cd Log-Analyzer-with-MCP uv sync source .venv/bin/activate
MCPがあれば何でもできる。 MCPとStreamlitを使って汎用的なチャットアプリを作ってみました。 今回は「LangChain MCP Adapters」を使用します。 「LangChain MCP Adapters」のREADMEをChatGPTにREADMEを要約してもらいました。 LangChain MCP Adapters は、Anthropic Model Context Protocol (MCP) のツールを LangChain や LangGraph で使えるようにする軽量なラッパーです MCP ツールを LangChain のツールとして変換し、複数の MCP サーバーと接続できるクライアント実装を提供します 簡単なインストールとセットアップで、MCP ツールを LangGraph エージェントに統合できます やってみよう! まずはただのチャットを作る ライブラリー
Claudeに新しいツール「テキストエディター」ツールが追加されました。 ユースケースとして以下のものが挙げられています。 コードのデバッグ コードのリファクタリング ドキュメント生成 テスト生成 ん?これは、今流行りのClineですね! ということで、この新しいツールを使ってみて、Clineっぽいものができるのか、検証しました。 環境 ドキュメント記載内容に沿って進めることにしましたので、Anthropic SDKを使いつつ、呼び出すのはAmazon BedrockのClaude 3.7 Sonnetとします。 実装手順 まず、ライブラリーをインストールします
前回の記事では、Claude 3.7 Sonnetの思考プロセスを可視化するStreamlitアプリケーションを作成しました。今回は、そのアプリケーションをさらに発展させ、Web検索機能を追加した実装について解説します。 技術スタックの概要 このアプリケーションでは以下の技術を使用しています: Streamlit - Pythonベースの対話型Webアプリケーションフレームワーク Amazon Bedrock - AWSのフルマネージド型生成AIサービス Claude 3.7 Sonnet - Anthropic社の最新LLMモデル Tavily API - Web検索機能を提供するAPIサービス 前回からの主な拡張ポイント Web検索機能の追加: Tavily APIを利用したWeb検索機能をClaude 3.7に統合 ツール使用の可視化: モデルがWeb検索ツールを使用する過程を可視化
{ "id": "msg_bdrk_015ykemmXHYLDd27XkvK3VqG", "type": "message", "role": "assistant", "model": "claude-3-7-sonnet-20250219", "content": [ { "type": "thinking", "thinking": "この質問では、生成AIの仕組みを10歳の子どもにもわかりやすく説明することが求められています。専門用語を避け、身近な例えを使って説明するのが良いでしょう。\n\n生成AIの基本的な仕組みとしては以下のポイントを含めるといいと思います:\n1. 大量のデータからの学習\n2. パターンの認識と予測\n3. 文章・画像・音声などの生成の仕組み\n4. 入力に対して適切な出力を作る方法\n\n10歳の子どもが理解できるレベルで、これらを説明していきましょう。
例えば、こちらのブログですが、グラフィカルな解説部分が、画像になっています。 Claudeはマルチモーダルに対応しているので、画像を添付した状態で「文字を抽出して」というと文字を抽出してくれますが、日本語で要約して回答したり、元の文章を正確に抽出する のは、意外と難しいと感じていました。 以下は、Claude.aiを使って「添付画像から文字を抽出して」と依頼した際の結果です。 原文そのままを正確に抽出したいときってありますよね?それを解決する方法を編み出しました。 方法は、「 HTMLで再現させる 」です! 本投稿の先頭の画像を添付して「添付画像をHTMLで再現して」と依頼した際の結果がこちらです。 感動!!! (注:右側が画像をもとに生成したHTMLを、プレビューした状態です。Claude.aiのArtifactsという機能です) アイコンがちょっと違うとか省略されてるとかはありますが、
流行りに便乗するタイプです。 DeepSeek-R1とは? DeepSeek-R1は、DeepSeek社が開発した生成AIモデルです。以下の記事によると「DeepSeek-R1は数学、コード、推論タスク全体でOpenAI o1に匹敵するパフォーマンスを発揮する」とのことです。 DeepSeek-R1の「派生モデル」とは? DeepSeek-R1が公開されているHugging Faceのページでは、DeepSeek-R1を蒸留した「DeepSeek-R1-Distill」も公開されています。 蒸留の解説部分を翻訳すると以下のとおりです。 私たちは、より大きなモデルの推論パターンをより小さなモデルに蒸留することができ、その結果、小さなモデルで RL を通じて発見された推論パターンと比較して、より優れたパフォーマンスが得られることを実証しました。オープンソースの DeepSeek-R1 とその
Quota type | Quota model | Applied account-level quota value | AWS default quota value | Region | Quota code requests per minute | AI21 Labs Jurassic-2 Mid | 0.0 | 400.0 | ap-northeast-1 | L-75D9A33A requests per minute | AI21 Labs Jurassic-2 Ultra | 0.0 | 100.0 | ap-northeast-1 | L-A48E31B4 requests per minute | Amazon Titan Image Generator G1 | 0.0 | 60.0 | ap-northeast-1 | L-7DBB06FD requests p
AWSのワークショップをあさってました。 実践力を鍛えるBootcamp - クラウドネイティブ編 - いいですね~ 実践力、鍛えましょう! で環境構築をするぞーと見ていると。。。 VS Code ServerをEC2で起動するCloudFormationテンプレートが用意されている!!! さりげない優しさ すてきすぎ やってみました。 手順 上記ページの「Launch」リンクをクリックします マネジメントコンソールのログインが必要でしたら、ログインしてください スタックのクイック作成画面が表示されます。必要でしたらパラメータなどを修正してください デフォルト値は以下のとおりです スタックのデプロイが始まりますので完了するまで待ちます 出力タブに「PasswordURL」と「URL」が表示されますので、まずは「PasswordURL」のリンクをクリックします Secrets Manager
今日はこちらのビッグニュースが飛び込んできました! AWS ChatbotがBedrock agentsに対応したので、SlackやTeamsとBedrockが連携できるようになりました🎉🎉🎉 早速やってみました。なんと ノーコード です!! 最速を狙いましたがすでに検証された方がいました!早い! 手順 Bedrock agentsを作成する マネジメントコンソールでBedrockの管理画面を開きます 左メニューの「エージェント」をクリックします 「エージェントを作成」をクリックします 「Name」を入力して「作成」をクリックします エージェントビルダーの画面に遷移します モデルを選択で好きなモデルを選択します。(私はClaude 3 Haikuを選択しました) 「エージェント向けの指示」にプロンプトを入力します。(私はこちらのClaude 3 Haikuのシステムプロンプトを入力し
client = boto3.client("bedrock-runtime", region_name="us-east-1") response = client.converse( modelId="us.anthropic.claude-3-haiku-20240307-v1:0", messages=[{"role": "user", "content": [{"text": "HTMLでログイン画面を作って"}]}], inferenceConfig={"temperature": 0}, ) [ { "text": "はい、HTMLでログイン画面を作成することができます。以下は一例です。\n\n```html\n<!DOCTYPE html>\n<html>\n<head>\n <title>Login Page</title>\n <style>\n body {\n fo
AnthropicのAlexさんのポストを発見! 新しくクイックスタートをGitHubで公開したよとのことです。 GitHubのリポジトリはこちらです。 早速試してみました。 含まれるもの 2024/9/4時点では、「Customer Support Agent」プロジェクトが一つだけ用意されています。 「Customer Support Agent」は、カスタマーサポートを想定したチャットアプリです。 まず、見た目がいい! READMEからの和訳ですが、主な特徴は以下のとおりです Anthropic の Claude モデルを使用した AI 搭載チャット コンテキスト ナレッジ検索のための Amazong Bedrock 統合 リアルタイム思考とデバッグ情報の表示 ナレッジ ベース ソースの視覚化 ユーザーの気分検出と適切なエージェント リダイレクト shadcn/ui コンポーネントを
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
使用するもの VSCode おなじみのIDEです。VSCodeには、サーバーとして起動するオプションが用意されていますので、今回はその仕組を利用します。 pinggy プライベートネットワーク内のポートを一時的にパブリック公開するプロキシーをサービスとして提供しています。無料で利用することも可能です。 手順 AWS CloudShell( https://ap-northeast-1.console.aws.amazon.com/cloudshell/home )にアクセスします VSCodeをインストールします curl -L "https://code.visualstudio.com/sha/download?build=stable&os=cli-alpine-x64" -o vscode_cli_alpine_x64_cli.tar.gz tar zxvf vscode_cli_
Amazon BedrockにMistral Large 2が追加されました。 前日にLlama 3.1が追加されたというのに、すごいリリース体制ですね。寝てないんでしょうか。 Bedrockの日本語対応モデル 2024/7/25時点で公式サイト上で、日本語対応が明記されているモデルは以下のモデルです。 Anthropic : Claude 3.5 Sonnet / Claude 3 Opus / Claude 3 Sonnet / Claude 3 Haiku Cohere : Command R+ / Command R Mistral AI : Mistral Large 2 Claude 2などは、「英語とその他いろいろな言語」みたいな書き方なので、除外します。 検証内容 BedrockがGAした際の記事の全文(英語)を渡して、解説してもらいます。 LangChainのドキュメント
import logging from multiprocessing import Process, Pipe import re import sys from io import StringIO from typing import Dict, Optional logger = logging.getLogger(__name__) globals: Optional[Dict] = {} locals: Optional[Dict] = {} def sanitize_input(query: str) -> str: """Sanitize input to the python REPL. Remove whitespace, backtick & python (if llm mistakes python console as terminal) Args: query
Open WebUIを使ってみました。 https://openwebui.com/ 当初は「Ollama WebUI」という名前だったようですが、今はOpen WebUIという名前に変わっています。Ollama専用じゃなくなったということでしょう。OpenAIに対応済みです。 早速使ってみました。もちろんBedrockで。 6/11 続編を書きました。 環境構築 Dockerですんなり構築です。Bedrockに対応はしてないので、「LiteLLM」を使って対応させます。 環境変数でこのあたりを指定 Ollamaを無効化 LiteLLMのエンドポイントをOpenAIのエンドポイントとして登録 APIキーを登録(LiteLLMとの通信には不要ですが、未指定だとOpen WebUIが正しく動作しませんでした) services: open-webui: image: ghcr.io/open-
Amazon Bedrockに突如新APIが登場しました。驚きです。その名も Converse API 注:Titan Image Generator G1で生成しました(プロンプト:Converse, Bedrock, API) Converse APIとは Converse APIとは、会話型アプリケーションを単一のAPIで実行できるものです。 Bedrockにこれまであった、Invoke Model APIは、APIは単一でしたが、パラメータの形式がモデルごとに異なりますので、モデルにあったパラメータを把握して利用する必要がありました。 Converse APIは、パラメータの構造も含めて共通化が進んでおり、モデルIDを変えるだけで別のモデルでも動作するようになりました。ClaudeからCommandに切り替えたりが簡単にできるようになりました。
今週は、AWS Startup Loft Osaka Pop-Upにお邪魔してきました。 コワーキングスペースを提供してくれたり、日替わりでさまざまなイベントが開催されていました。(火曜日から木曜日まで、3日間もお邪魔しました。暖かく迎えていただいて大変感謝しております) 木曜日にはAmplifyに関するイベントがあり、GAされたばかりのGen2に関して学ぶことができました。なんと AmplifyのプロダクトマネージャのMattさんからのDeep dive もあり、 裏側までちら見せ してもらうという贅沢な場でした。(現地はAM 6:00ぐらいと言ってた気がします。Mattさんありがとうございました!!)
出オチです。(タイトル先行で始める技術ブログがあってもいいじゃない) 先にデモを提示します。 自由に使っていただいて構いません。(びっくりする課金が来たら、止めますw) ここのところ、簡単に構築できる生成AIアプリづくりが個人的ブームになってます。Qiitaをナレッジの情報源としたRAGを作ってみましたので、作り方を解説します。 使用するもの 生成AI:Amazon Bedrock (Claude 3 Haiku) ドキュメント取得:Google検索 画面UI:Streamlit 処理の流れ 先日投稿した記事と同様、以下の流れを行います。 検索クエリ生成 検索 回答生成 プロンプトはClaudeの開発元のAnthripicが公開しているクックブックを参考にしました。 解説 1. 検索クエリ生成 ユーザーの質問文をもとに検索クエリを生成します。Amazon BedrockのClaude 3
Bedrockを無敵にするツールを発見しました。 その名も「 LiteLLM 」 LiteLLMとは 公式サイト:https://github.com/BerriAI/litellm LiteLLMは 様々な生成AIのAPIを一つのAPIインターフェイスで呼び出せるようにするツール です。 使い方は大きく2つあります。 LiteLLM python SDK OpenAI proxy Server 対応している生成AI APIはこちら 無敵①:LiteLLM python SDKで様々なAPIを一つのインターフェイスで呼ぶ まずはLiteLLM python SDKを解説します。
LangChainを使って色々LLMアプリを作って遊んでいます。 体感速度が遅いけど、どこが遅いかわからない サンプルソースをコピペして作ったので、実は中身のことをわかってない 入力と出力だけじゃなくて、中間の状態も知りたい みたいなことってありませんか?そんなときに使えるツールを見つけましたのでご紹介します。 環境構築の方法などは前回の内容を参照ください。 トークン数計算 Langfuseにはトークン数と価格を計算する機能があります。Bedrockのモデルの場合は少し設定が必要です。 Modelsメニューを開きます。 モデルごとの価格が設定されています。LangfuseのデフォルトではOpenAIのGPT-4やAnthropicのClaudeなどが登録されています。 モデル名の正規表現で対応するモデルがある場合にトークン計算が行われますが、Bedrockで使用できるClaudeの場合はマ
次のページ
このページを最初にブックマークしてみませんか?
『qiita.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く