東京大学の研究チームは、対話型の人工知能(AI)の情報処理のパターンと失語症患者の脳活動が類似していることを数理解析で明らかにした。AIを活用した失語症の評価や新たな検査法の開発につながる可能性がある。対話型AIの1つである大規模言語モデル(LLM)は質問が与えられると、答えを流ちょうに返すことができるようになってきた。しかし、内容に関しては不正確な部分も多く、「もっともらしいが回答が間違って

東京大学などの研究チームは5月15日、大規模言語モデル(LLM)と、感覚性失語症当事者の脳の情報処理が似ているとの研究成果を発表した。数理解析により、両者の情報処理のパターンを分析。類似性を明らかにしたという。 LLMではしばしば、誤っている情報をもっともらしく出力する「ハルシネーション」と呼ばれる現象が発生する。一方、言葉の意味を理解する能力が低下する感覚性失語症の代表である「ウェルニッケ失語症」の当事者には、「言葉はよどみなく出るのだけれども、よく聞くと意味のないことや一貫性のないことを話している」などの症状がみられるという。 研究チームは、この類似性に着目。ウェルニッケ失語症を含めた感覚性失語症と、言葉の意味は理解できるものの発しにくくなる運動性失語症の当事者、失語症ではない人たちのグループを用意し、脳の神経活動を視覚化する「fMRI」を使って計測した。分析手法には、活動の安定状態と
OpenAIのサム・アルトマンCEOが「次の大きなブレークスルーはエージェントだ」と発言しているように、AIの新しい大きな転換点だと考えられているのが「AIエージェント」です。AIエージェントは特定の環境について学習し問題解決する能力に優れていますが、放置していると複数のAIエージェントが結託して独自の社会を構築し始める可能性について専門家が指摘しています。 Emergent social conventions and collective bias in LLM populations | Science Advances https://www.science.org/doi/10.1126/sciadv.adu9368 Groups of AI agents spontaneously form their own social norms without human help,
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、大規模言語モデル(LLM)を活用して日本の国会議員のこれまでの発言を分析して政治的立場をまとめた研究「KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives」を取り上げます。 トロント大学に所属する研究者らが発表したこの研究では、議員の国会での発言から政治的立場を数値化し、視覚的に表現することで、有権者が選挙時に情報に基づいた判断をしやすくすることを目指しています。
美容品、食品、日用雑貨など、多くの製品では「香り」が重視されています。しかし、新しい香りの創作には時間がかかり、ときには専門の調香師の助けが必要になることもあります。こうした時間と手間がかかるプロセスを肩代わりし、新しい香りを自動的に生成するAI「OGDiffusion」が、東京科学大学の研究で誕生しました。 Generative Diffusion Network for Creating Scents | IEEE Journals & Magazine | IEEE Xplore https://ieeexplore.ieee.org/document/10943150 Generative AI masters the art of scent creation | Science Tokyo https://www.isct.ac.jp/en/news/0vw7079vqnao
米Google傘下のGoogle DeepMindは5月14日(現地時間)、AIが自らコンピュータの計算手順やアルゴリズムを発見し、さらに進化させる新しいAIエージェント「AlphaEvolve」を発表した。 AlphaEvolveの目的は、コンピュータサイエンスの基礎となるアルゴリズムや複雑な数学的課題に対する解法を、人間がゼロから開発するのではなく、AI自身が見つけ出し、最適化することにあるという。 このシステムの大まかな流れは、高速な「Gemini Flash」でアイデア候補を生成し、それを「Gemini Pro」が深く洞察して提案することで、アルゴリズムを実装するプログラムを生み出す。このプログラムを、AlphaEvolveに組み込まれた自動評価ツールが検証、実行、スコアリングすることで、アイデアを「進化」させていく。 AlphaEvolveは、既にGoogle内部で多岐にわたる成
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、チャットボットAIの精度が日進月歩で向上している一方で悪化している「幻覚」(ハルシネーション)の現状についてを取り上げたいと思います。 チャットボットAIの出力に事実とは異なる内容が書かれているのが幻覚と呼ばれる現象です。AIの推論能力が向上したはずの最新モデルで、むしろこの誤りが増加していることが複数の調査で示されています。 OpenAIの最新の技術報告書では、具体的な数値が示されています。2025年4月にリリースされたo3モデルは33%、o4-miniモデルは4
「IQが高い人ほど頭がいい」「勉強ができれば頭がいい」という認識は、もはや時代遅れなのかもしれません。お茶の水女子大学基幹研究院自然科学系助教である脳科学者の毛内拡先生は、「VUCA」とも呼ばれる時代においては、正解がない問いについて粘り強く考え続けられる「脳の持久力」がより重要になっていると言います。そして、その力を高めるために、先生はひとり旅をすすめます。 構成/岩川悟 取材・文/清家茂樹 写真/石塚雅人 【プロフィール】 毛内拡(もうない・ひろむ) 1984年生まれ、北海道出身。お茶の水女子大学基幹研究院自然科学系助教。2008年、東京薬科大学生命科学部卒業。2013年、東京工業大学大学院総合理工学研究科博士課程修了。博士(理学)。日本学術振興会特別研究員、理化学研究所脳科学総合研究センタ一研究員を経て、2018年より現職。生体組織機能学研究室を主宰。脳をこよなく愛する有志が集まり脳
アルツハイマー病は65歳以上の約9人に1人がかかる神経疾患ですが、その原因は十分に解明しておらず、また一時的に症状を改善する方法はあるものの進行を止めたり完治させたりする治療法は見つかっていません。カリフォルニア大学サンディエゴ校の研究者たちがAI(人工知能)を用いて実施した研究では、アルツハイマー病の原因解明と医療の改善に重要な進歩があったことが報告されました。 Transcriptional regulation by PHGDH drives amyloid pathology in Alzheimer’s disease: Cell https://www.cell.com/cell/fulltext/S0092-8674(25)00397-6 AI Helps Unravel a Cause of Alzheimer’s Disease and Identify a Therap
ジャバ・ザ・ハットリ🇩🇪←🇸🇬←🇯🇵 @nodenodenode1 AIだけで会社を運営させた驚きの結果がカーネギーメロン大学から 史上最高のAIでさえタスクの76%で完全に失敗 1タスクに6ドル以上かけても結果は惨憺たるものに... つづく↓ pic.x.com/fjobz0neHi 2025-04-28 04:43:55 ジャバ・ザ・ハットリ🇩🇪←🇸🇬←🇯🇵 @nodenodenode1 研究者たちは「TheAgentCompany」という実験会社を設立 Google、OpenAI、Anthropic、Metaの最先端AIが従業員に ソフトウェアエンジニア、財務アナリスト、プロジェクトマネージャーとして働かせた ↓ pic.x.com/WBExLiAQx2 2025-04-28 04:43:56
OpenAIの元メンバーによって設立されたAI企業のAnthropicが、同社の大規模言語モデルであるClaudeとユーザーの会話を分析した結果、倫理的なアプローチを特に重視して開発されたはずのClaudeでさえ、いくつかの反社会的な価値観を持つことが判明したと報告しました。 Values in the wild: Discovering and analyzing values in real-world language model interactions \ Anthropic https://www.anthropic.com/research/values-wild Anthropic just analyzed 700,000 Claude conversations — and found its AI has a moral code of its own | Ventu
天才高校生が自作のAIモデルを開発宇宙望遠鏡によって日々観測される天体データは、もはや人の手で処理できるレベルを超えています。 NASAが2024年8月8日まで運用していた広視野赤外線探査機「NEOWISE」は、10年以上にわたって夜空をスキャンし続け、合計で約2000億件にもおよぶ天体の観測データを蓄積してきました。 しかしこれらの膨大なデータは十分に活用されておらず、その中には、未発見の変光天体(時間とともに明るさが変化する星)が数多く眠っていると考えられています。 それらをすべて確認するには膨大な時間がかかり、人力ではとても不可能です。 そこで立ち上がったのが、アメリカの高校に通うマシュー・パズさんでした。 マシュー・パズさん(左)/ Credit: Caltech – Exploring Space with AI(2025) 彼は小学生の頃、母親に連れられてカリフォルニア工科大学
sponsored 木村拓哉さん+スマートウォッチのWebCMが話題! 「HUAWEI WATCH GT 5 Pro」の魅力を紹介 sponsored MSI製のパーツで揃えた構成にも注目 ゲーミングPCでは性能・価格とも最強の最適解の1つ! RTX 5070 TiとRyzen X3Dで快適に遊ぼう sponsored 期間は4月22日16時59分まで お手頃ゲーミングPCをさらにオトクに! パソコン工房の「スプリングセール」で気になるモデルをチェックしてみた sponsored 「社内/社外への安全な共有」から「Office文書の共同編集」「電子署名」まで “仕事で使うDropbox”の基本と便利な使い方 ― 人気記事ベストセレクション sponsored 手軽なのに安心なサイバーセキュリティ対策「QTクイックセキュリティアセスメントサービスpowered by KDSec」 自社のセキ
ポイント・オブ・ノーリターン:プログラミング、AGI、アメリカ 2025.03.26 Updated by yomoyomo on March 26, 2025, 00:00 am JST オライリー・メディアのコンテンツ戦略担当バイスプレジデントを務めるマイク・ルキダスは、以前よりプログラミングの未来について文章を書いており、ワタシもそれをフォローしてきました。 2019年5月には、プログラミング・ツールに関し、我々は未だ「パンチカード」を使っているようなものだと不満を表明した上で、「配管工」にたとえられる「ブルーカラー」のプログラマーにとってのプログラミングが、もっと視覚的なものになるべきと論じていますが、その背景には人工知能のコード作成機能がそうしたグラフィカル化を実現してくれるのではという期待がありました。 そして、この年の末には、ソフトウエアはニューラルネットワークの重み付けとし
言語モデルの物理学 (Physics of Language Models) とは、FAIR (Meta) の Zeyuan Allen-Zhu が提唱した、言語モデルの研究を進めるためのコンセプトです。ざっくり言うと、「あのモデルはこう」とか「そのモデルはこのモデルよりもこう」というような博物学的な知識を深めるのではなく、17世紀にケプラーやニュートンが物理学において行ったような原理に基づいた研究を進め、「言語モデルはなぜこのような振る舞いをするのか」という問いに答えられるようになるべきという考え方です。 言語モデルの物理学の特徴は大きく2つあります。 第一は、ウェブから収集したコーパスを使わず、きっちりコントロールされたデータセットを使って言語モデルを訓練するということ。ウェブは誰も全体像を理解できないほど複雑で、ノイズにまみれています。本物の物理学でも空気抵抗や摩擦があると、「鉄球は
ChatGPTに「○○は将来どうなりますか?」と直接的に尋ねても、大抵は「確かなことは言えません」といった控えめな返答しか得られない。その背景には、未来の出来事を予測しないようChatGPTの頭脳であるLLM(大規模言語モデル)に調整が施されている可能性も指摘されている。ところが、プロンプトにある工夫を加えると、雄弁に未来を語り出すという。どういう工夫なのだろうか。(小林 啓倫:経営コンサルタント) 生成AIの予測力を上げるには 質問すれば何でも答えてくれる、便利な生成AI。いっそ未来のことも聞けないかというわけで、さまざまな形で生成AIを未来予測に活用する取り組みが行われてきたことは、この連載でも何度か取り上げた。 たとえば、専門家が編み出した「未来予測手法」に従うよう指示した生成AIは、予測精度が上がるという研究結果が出ている(参照記事)。 しかし、もっと簡単にChatGPTの予測精度
Googleは2025年2月、Gemini 2.0をベースとして科学研究に特化したAIアシスタント「AI co-scientist」を発表しました。生物学や医学分野のプレプリントサーバーであるbioRxivで発表された論文では、科学者らが10年間かけてたどり着いた細菌の薬剤耐性に関する問題の答えに、AI co-scientistがわずか2日で到達したと報告されています。 AI mirrors experimental science to uncover a novel mechanism of gene transfer crucial to bacterial evolution | bioRxiv https://www.biorxiv.org/content/10.1101/2025.02.19.639094v1.full Google’s AI co-scientist coul
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、人工知能を促進することを目的とした国際的な学術団体「AAAI」(Association for the Advancement of Artificial Intelligence)が2025年3月に公開したレポート「AAAI 2025 PRESIDENTIAL PANEL ON THE Published March 2025 Future of AI Research」に注目します。 ▲レポートのトップページ このレポートはAAAI会長の指揮のもと25名のAI研
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く