丹波 高山寺 【本尊御開帳】祐弘 @TanbaKosanji AIが普及すれば人間は仕事が本当に減るのでしょうか そこで思い出したのは、戦後に農村の生活改善、家事軽減の一つとして、かまどを廃してガスを引こうという運動に、多くの主婦からの反対があったという話 その理由は火の番が唯一の休憩時間であり、かまどが無くなれば別の仕事が増えるからだと 2025-02-15 15:42:15

生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 2025年2月7日 東京大学大学院工学系研究科准教授 渡邉 正峰 1970年、千葉県生まれ。東京大学大学院工学系研究科博士課程修了。専門は神経科学。著書に”From Biological to Artificial Consciousness” (Springer)、『脳の意識 機械の意識』(中央公論新社,2017)、『理工学系からの脳科学入門』(共著、東京大学出版会, 2008)など。近著は『意識の脳科学 「デジタル不老不死」の扉を開く』(講談社,2024)、『意識はどこからやってくるのか』(共著、早川書房, 2025)。 自らの「意識」の存在を疑ったことがある、という人はそう多くないでしょう。また、自らの意識の存在に疑問を差し挟む余地がないように、仕事や生活を共にする「他者」にも意識が
特集です。こちら、AIも搭載したあることを専門に行う最新鋭の機械なんです。総重量はなんと3トン!この巨大マシンが誕生した驚きの理由と繊細な職人芸にチューモクです! 愛媛県東温市にある土佐電子工業・松山工場。工場を自動化する機械の生産などを行っています。土佐電子工業の開発部長、岡村斉さんら開発区グループは6年前からある極秘プロジェクトを進めてきました。 その正体がこちら!銀色に輝く全長4m、総重量3トンの巨体。このマシンの正体は… 土佐電子工業 岡村斉さん: 「これがまだネーミングはしていないんですけど、サーモンの骨抜き機になります」 サーモンの自動骨抜き機です。 「たかが骨を抜くためなんですけど、そこにはいろいろ工夫がありまして」
ChatGPT O1やDeep Researchなどがすごいパフォーマンスを出してきていますね。もう仕組み上も単にLLMではなくAIとしか言えなくなってきています。 そんなAIが進化して、プログラミングをAIがやってくれるようになると、そのプログラムの確認をどうするんだって話があります。業務システムの開発では、プログラム読めない人がプログラムの生成に携わったりするようになって、できてきたプログラムが読めないってなる。 問題では?と思ったのだけど、そもそも業務システムが不要になりますね。 小さい食堂で、伝票とかも取らずにちゃんとまわす人とかいますね。記憶力のいい人だと、昼のラッシュでもちゃんと覚えてまわせそうです。 ファミレスでバイトしてたとき、調子がいいときだと割と全部の注文を覚えれてたりしたので、それなりにまわせる人が多そうです。 そして、AIであればもっと記憶力よく考えてまわせるので、
■ ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ
新手法「TAID」によって学習された小規模日本語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 本稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計
January 2025 A few weeks ago I made the case for stronger US export controls on chips to China. Since then DeepSeek, a Chinese AI company, has managed to — at least in some respects — come close to the performance of US frontier AI models at lower cost. Here, I won't focus on whether DeepSeek is or isn't a threat to US AI companies like Anthropic (although I do believe many of the claims about the
Google Researchからtransformerアーキテクチャの記憶メカニズムを抜本的に改善するモデルアーキテクチャに関する論文が公開されていました。とても興味深かったので概要をまとめてみました。 理解不足も多々あるので、興味を持たれた方はぜひ原文をご確認ください。また、間違いなどあればコメントいただけると幸いです。 1.概要現状の大規模事前学習言語モデル(LLM)の多くは推論時(テスト時)には学習は行われず、モデル使用時はあくまでも「推論専用」の存在でした。 「Titans: Neural Long-Term Memory for Enhanced Sequence Modeling」では、テスト時(オンライン学習フェーズ)にも新しい情報で学習内容をアップデート、蓄積し、従来のモデルアーキテクチャでは実現が難しかった記憶の忘却が可能な「Neural Memory(ニューラルメモリ
日本語Full-duplex音声対話システムの試作 Paper (To appear) | Model | Code 大橋 厚元,飯塚 慎也,姜 菁菁,東中 竜一郎 名古屋大学 大学院情報学研究科 概要: 人間同士の対話における発話のオーバーラップや相槌など,同時双方向的な特徴をモデル化できるfull-duplex音声対話システムは,近年注目を集めている.しかし日本語においては,full-duplex音声対話システムはほとんど見られず,full-duplex音声対話システムの開発に関する知見は不足している.本研究では,英語における主要なfull-duplex音声対話システムであるMoshi[1] をベースとすることで,日本語で利用可能な最初のfull-duplex音声対話システム J-Moshi[2] を試作し,公開する.
タイムラインで流れてきたポストから、Googleが作っているImageFXが作ってくれる画像のクオリティが高いように見えたので、触ってみていた。 ImageFXの作例 これが自分で撮った紅葉の写真で、 こっちが、Image FXに、京都の紅葉、50mm f1.4バブルボケ、とか伝えて作ってもらったもの。 ChatGPTに同じ入力を渡すと、こんな画像なので、仕上がりの違いがわかると思う。 どこか嘘っぽいというかメルヘンな仕上がりになりがち。 ここまでできるなら、手持ちの画像そっくりな画像を作れるのでは、と思って試してみる。 手持ちのラーメンの画像そっくりなラーメン画像を作る ChatGPTに、自分で撮影したラーメンの写真をアップロードして、この画像を作るためのプロンプトを作って、とお願いする。 この画像と同じ写真を生成AIで作りたいので、プロンプトを生成してください。内容だけでなく、レンズの
はじめに日本企業の多くが、これまで生成AIの検証としてRAG(検索拡張生成)を試してきた状況にあると思います。 その次のトレンドとして、AIエージェントやマルチエージェントシステムなどが来ると感じています。それに備えて、多くの企業・組織から色々なフレームワークやサービスが展開されてきています。 しかし、ReActを使うようなAIエージェントや、マルチエージェントの構築に関して業界全体でまだまだ経験が乏しく、ベストプラクティスが固まっていない状況なのではないかと思います。 私自身の経験や論文の内容などを元に、現時点での マルチエージェントシステムのイメージ 設計・構築のポイント などをわかりやすくまとめようというのがこの記事の目的となります。 1. マルチエージェントシステムとは1-1. これまでこれまで検証・構築されてきた多くのLLMアプリケーションは、RAGのようなユースケースで主に生成
CES—NVIDIA today unveiled NVIDIA® Project DIGITS, a personal AI supercomputer that provides AI researchers, data scientists and students worldwide with access to the power of the NVIDIA Grace Blackwell platform. Project DIGITS features the new NVIDIA GB10 Grace Blackwell Superchip, offering a petaflop of AI computing performance for prototyping, fine-tuning and running large AI models. With Projec
当ニュースレターは2023年を「SaaSがオワコン化した年」と位置づけたが、2024年は早くもAIが終わった一年であった。少なくとも大規模言語モデル(LLM)そのものの発展を、物珍しそうに追いかける時期は過ぎた。生成AIが今後どこまで賢くなるかはもちろん未知数である。しかし、既に業務で十分に役立つレベルにある現行モデルのコストが今後も下がっていくことは確実だ。 The cost of GPT-4 APIs at launch in Mar 2023 was roughly ~$30 per 1m tokens. Seeing Deepseek V-3 APIs at ~$1 per 1m tokens today. For AI application companies, cost of "intelligence" is falling significantly faster tha
最近、AIに小説を書いてもらっています。 筆者が普段やっていることの延長線上にあるようなSF小説なのですが、使っている大規模言語モデル(LLM)のバージョンが上がるたびに性能テストも兼ねて執筆を依頼しています。 最初に書いたのは9月。このときにはClaude 3.5 Sonnetを使いました。 ・写真の中の約束 8306文字と、短編にしてもちょっと短い。プロットは気に入っています。 ■ChatGPT o1 pro modeとClaude 3.5 Sonnetの合作12月6日、OpenAIはChatGPTの新バージョンo1 pro modeを公開しました。使うには毎月200ドル(3万円)が必要。 これを使ってもっと長い小説を書いてもらおうと思い、ChatGPT o1 pro modeで作り、Claude 3.5 Sonnetで補作しました。 ・光の裂け目で君を待つ これもプロンプトはほぼ同じ
Large Concept Models: Language Modeling in a Sentence Representation Space 概要LLMs have revolutionized the field of artificial intelligence and have emerged as the de-facto tool for many tasks. The current established technology of LLMs is to process input and generate output at the token level. This is in sharp contrast to humans who operate at multiple levels of abstraction, well beyond single wo
米OpenAIは12月20日(現地時間)、新たなAIモデル「o3」を発表した。12日間に渡って開催してきた配信イベント「12 Days of OpenAI」の最終日となる12日目に発表した。同社が一般公開している中で最高性能の「o1」よりも性能が高く、汎用人工知能(AGI)としての性能を評価するベンチマークでもこれまでにないハイスコアを記録したとしている。 o3は、高度な推論が可能な「o」シリーズの最新AIモデルで、o1の次世代モデルに当たる。o3の他にも、小型モデルに当たる「o3-mini」も開発。o3-miniは、o3よりも思考時間が短く、コスト効率も優れているという。 なぜ「o2」ではなかったのかというと、スペインの通信業者Telefonicaが英国やドイツ向けに展開するブランド「O2」と被るのを避けるためと、OpenAIのサム・アルトマンCEOは説明している。 性能については、推論
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く