タグ

deeplearningに関するstealthinuのブックマーク (1,815)

  • AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話

    丹波 高山寺 【尊御開帳】祐弘 @TanbaKosanji AIが普及すれば人間は仕事当に減るのでしょうか そこで思い出したのは、戦後に農村の生活改善、家事軽減の一つとして、かまどを廃してガスを引こうという運動に、多くの主婦からの反対があったという話 その理由は火の番が唯一の休憩時間であり、かまどが無くなれば別の仕事が増えるからだと 2025-02-15 15:42:15

    AIが普及すれば本当に人間の仕事は減るのか?戦後ガスを引く時に多くの主婦から「火の番は唯一の休憩時間だった」と反対された話
    stealthinu
    stealthinu 2025/02/17
    今回のAIの件はこれまでのものとはまったく質の違うものであることがわかってない人が多すぎる。人より知能の高い知能が出来たら人の知能は不要になるという話なのに。
  • gemini-2.0-flashが賢くてコスパがよすぎる件

    この記事はLLMをAPIで使うこと前提の記事です。 AI エージェント開発ハッカソン参加記事:Gemini 2.0 Flash で技術文書分析ツール「Tascario」を作ってみたの、技術的補足記事です。 APIでLLMを使っている皆さん gemini-2.0-flash を使っていますか?APIで使う限り、かなり性能が高く、コスパも良すぎて、APIならこれ一択で良いのでは?とすら思い始めています。

    gemini-2.0-flashが賢くてコスパがよすぎる件
    stealthinu
    stealthinu 2025/02/13
    一旦中間言語化することでCoTしてるのと同じ効果でより高精度な答えを出せるという手法。そのくらいの工夫をしてもAPI叩くならGemini-2.0-flash使うほうがお得ということらしい。
  • 生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 2025年2月7日 東京大学大学院工学系研究科准教授 渡邉 正峰 1970年、千葉県生まれ。東京大学大学院工学系研究科博士課程修了。専門は神経科学。著書に”From Biological to Artificial Consciousness” (Springer)、『脳の意識 機械の意識』(中央公論新社,2017)、『理工学系からの脳科学入門』(共著、東京大学出版会, 2008)など。近著は『意識の脳科学 「デジタル不老不死」の扉を開く』(講談社,2024)、『意識はどこからやってくるのか』(共著、早川書房, 2025)。 自らの「意識」の存在を疑ったことがある、という人はそう多くないでしょう。また、自らの意識の存在に疑問を差し挟む余地がないように、仕事や生活を共にする「他者」にも意識が

    生成AIは「意識」を持てる?「意識の秘密」に挑戦する科学者がヒトの脳と“機械の脳”を合体させたい理由 | レバテックラボ(レバテックLAB)
    stealthinu
    stealthinu 2025/02/07
    そう!もはやAGIの地点にいるのにまだAI(LLM)に「意識」を持ったという状況にはできてない。AGI達成するときにはすでに「意識」が存在してると思ってたわ。何が足らんのかを知りたい。
  • 水産業界の救世主なるか!?大量のサケの骨抜きを可能にする「AI搭載マシン」驚きの職人芸|南海放送NEWS NNN

    特集です。こちら、AIも搭載したあることを専門に行う最新鋭の機械なんです。総重量はなんと3トン!この巨大マシンが誕生した驚きの理由と繊細な職人芸にチューモクです! 愛媛県東温市にある土佐電子工業・松山工場。工場を自動化する機械の生産などを行っています。土佐電子工業の開発部長、岡村斉さんら開発区グループは6年前からある極秘プロジェクトを進めてきました。 その正体がこちら!銀色に輝く全長4m、総重量3トンの巨体。このマシンの正体は… 土佐電子工業 岡村斉さん: 「これがまだネーミングはしていないんですけど、サーモンの骨抜き機になります」 サーモンの自動骨抜き機です。 「たかが骨を抜くためなんですけど、そこにはいろいろ工夫がありまして」

    水産業界の救世主なるか!?大量のサケの骨抜きを可能にする「AI搭載マシン」驚きの職人芸|南海放送NEWS NNN
    stealthinu
    stealthinu 2025/02/07
    これ村上さんのレーザー脱毛のやつとかと同じパターンで、今まで人がやってたら人がやるには非現実的な工数だったものを機械化するパターンの応用例。
  • AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena

    ChatGPT O1やDeep Researchなどがすごいパフォーマンスを出してきていますね。もう仕組み上も単にLLMではなくAIとしか言えなくなってきています。 そんなAIが進化して、プログラミングをAIがやってくれるようになると、そのプログラムの確認をどうするんだって話があります。業務システムの開発では、プログラム読めない人がプログラムの生成に携わったりするようになって、できてきたプログラムが読めないってなる。 問題では?と思ったのだけど、そもそも業務システムが不要になりますね。 小さい堂で、伝票とかも取らずにちゃんとまわす人とかいますね。記憶力のいい人だと、昼のラッシュでもちゃんと覚えてまわせそうです。 ファミレスでバイトしてたとき、調子がいいときだと割と全部の注文を覚えれてたりしたので、それなりにまわせる人が多そうです。 そして、AIであればもっと記憶力よく考えてまわせるので、

    AIが進化すると、そもそも業務システムが不要になりそう - きしだのHatena
    stealthinu
    stealthinu 2025/02/05
    ブコメ上位がなんかなあと。つい2年前まではLLMでここまでAIが実現されるとはみんな思ってなかったよね。その後の進化もだいぶ速いよ?もうChatGPT以前の頃を覚えてないのかしら…
  • 高木浩光@自宅の日記 - ChatGPT o3-miniとGDPRの理解についてバトルした

    ChatGPT o3-miniとGDPRの理解についてバトルした Claudeは勘が良すぎて、もう一人の自分がいるみたいな感触で心地よいのだが、質問に引っ張られて根拠の怪しいことを言うことも多い*1ので危うい。もしやこれはエコーチェンバーの中にいるのでは?*2という不安感に苛まれる。ここはやはり、情報的健康のため、ChatGPTも使ってみるか(そういえば一昨年はGPT-4とバトルしていたのだなあ)ということで、o1と、今日出たばかりのo3-miniを使ってみた*3。 まず、o1の結果だが、勘の悪い弁護士という感じで、イラッときた。やり取りを全部読むと面白いと思うが、応答が冗長なので、載せてもあまり読まれないと思われる。そこで、o3-miniでやってみた(o3-mini-highを使用)ところ、同じような展開になるが、応答が簡潔なので、これなら読んでもらえるかなと思うので、これを載せてみ

    stealthinu
    stealthinu 2025/02/03
    わかる!!論理的矛盾とか根拠になってない根拠を詰めても絶対に自分のミスを認めないんだよね。なんなのあの頑固さ?やつらには感情が無いはずなのになぜ意固地な行動とるんだろ?
  • Sakana AI

    新手法「TAID」によって学習された小規模日語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計

    Sakana AI
    stealthinu
    stealthinu 2025/01/31
    1.5Bでここまで上がってきているのすごいな。最終的には1.5BでChatGPT-3.5なみの性能くらいまでいけたりするんかな。
  • https://unsloth.ai/blog/deepseekr1-dynamic

    stealthinu
    stealthinu 2025/01/31
    DeepSeek-R1の1.58bitのやつ。それでも131GB必要。1.73bitでGoodってなってて160GBくらいあるとローカルでR1がだいたいフル性能で動かせるっぽい。
  • Dario Amodei — On DeepSeek and Export Controls

    January 2025 A few weeks ago I made the case for stronger US export controls on chips to China. Since then DeepSeek, a Chinese AI company, has managed to — at least in some respects — come close to the performance of US frontier AI models at lower cost. Here, I won't focus on whether DeepSeek is or isn't a threat to US AI companies like Anthropic (although I do believe many of the claims about the

    Dario Amodei — On DeepSeek and Export Controls
    stealthinu
    stealthinu 2025/01/31
    色々な点で興味深い。本題ではないが、LLMは4倍/年の性能アップ、2026から27で完全なAGIが達成すると見てるとか、参考になる。
  • 推論時にも学習できるLLM!? 「Titans」|はまち

    Google Researchからtransformerアーキテクチャの記憶メカニズムを抜的に改善するモデルアーキテクチャに関する論文が公開されていました。とても興味深かったので概要をまとめてみました。 理解不足も多々あるので、興味を持たれた方はぜひ原文をご確認ください。また、間違いなどあればコメントいただけると幸いです。 1.概要現状の大規模事前学習言語モデル(LLM)の多くは推論時(テスト時)には学習は行われず、モデル使用時はあくまでも「推論専用」の存在でした。 「Titans: Neural Long-Term Memory for Enhanced Sequence Modeling」では、テスト時(オンライン学習フェーズ)にも新しい情報で学習内容をアップデート、蓄積し、従来のモデルアーキテクチャでは実現が難しかった記憶の忘却が可能な「Neural Memory(ニューラルメモリ

    推論時にも学習できるLLM!? 「Titans」|はまち
    stealthinu
    stealthinu 2025/01/27
    長期記憶と短期記憶を持つようにして推論時にも「学習」ができるようにしている。学習というよりコンテキストの記憶と言ったほうが正しそう。それが「学習」なのかもしれんが。
  • J-Moshi

    語Full-duplex音声対話システムの試作 Paper (To appear) | Model | Code 大橋 厚元,飯塚 慎也,姜 菁菁,東中 竜一郎 名古屋大学 大学院情報学研究科 概要: 人間同士の対話における発話のオーバーラップや相槌など,同時双方向的な特徴をモデル化できるfull-duplex音声対話システムは,近年注目を集めている.しかし日語においては,full-duplex音声対話システムはほとんど見られず,full-duplex音声対話システムの開発に関する知見は不足している.研究では,英語における主要なfull-duplex音声対話システムであるMoshi[1] をベースとすることで,日語で利用可能な最初のfull-duplex音声対話システム J-Moshi[2] を試作し,公開する.

    stealthinu
    stealthinu 2025/01/25
    この自然さは全二重にしてあることがキモなんだと思う。
  • ChatGPTに撮影時の条件込みで画像の内容を説明してもらって、ImageFXで生成するとほぼ同じ画像を作れておもしろい - hitode909の日記

    タイムラインで流れてきたポストから、Googleが作っているImageFXが作ってくれる画像のクオリティが高いように見えたので、触ってみていた。 ImageFXの作例 これが自分で撮った紅葉の写真で、 こっちが、Image FXに、京都の紅葉、50mm f1.4バブルボケ、とか伝えて作ってもらったもの。 ChatGPTに同じ入力を渡すと、こんな画像なので、仕上がりの違いがわかると思う。 どこか嘘っぽいというかメルヘンな仕上がりになりがち。 ここまでできるなら、手持ちの画像そっくりな画像を作れるのでは、と思って試してみる。 手持ちのラーメンの画像そっくりなラーメン画像を作る ChatGPTに、自分で撮影したラーメンの写真をアップロードして、この画像を作るためのプロンプトを作って、とお願いする。 この画像と同じ写真を生成AIで作りたいので、プロンプトを生成してください。内容だけでなく、レンズの

    ChatGPTに撮影時の条件込みで画像の内容を説明してもらって、ImageFXで生成するとほぼ同じ画像を作れておもしろい - hitode909の日記
    stealthinu
    stealthinu 2025/01/24
    ここまで再現性高くできるんだ。もっと他の画像へゆれると思ってた。人物でもこのくらいいけるのか試そう。
  • AIマルチエージェントの設計・構築(入門編)|はち

    はじめに日企業の多くが、これまで生成AIの検証としてRAG(検索拡張生成)を試してきた状況にあると思います。 その次のトレンドとして、AIエージェントやマルチエージェントシステムなどが来ると感じています。それに備えて、多くの企業・組織から色々なフレームワークやサービスが展開されてきています。 しかし、ReActを使うようなAIエージェントや、マルチエージェントの構築に関して業界全体でまだまだ経験が乏しく、ベストプラクティスが固まっていない状況なのではないかと思います。 私自身の経験や論文の内容などを元に、現時点での マルチエージェントシステムのイメージ 設計・構築のポイント などをわかりやすくまとめようというのがこの記事の目的となります。 1. マルチエージェントシステムとは1-1. これまでこれまで検証・構築されてきた多くのLLMアプリケーションは、RAGのようなユースケースで主に生成

    AIマルチエージェントの設計・構築(入門編)|はち
    stealthinu
    stealthinu 2025/01/09
    現時点(2024-11)での「エージェント」システムについてのまとめ。今後エージェント的なシステムがメインになっていきそうだが、o3レベルになったときにはまた少し変わりそう。
  • NVIDIA Puts Grace Blackwell on Every Desk and at Every AI Developer’s Fingertips

    CES—NVIDIA today unveiled NVIDIA® Project DIGITS, a personal AI supercomputer that provides AI researchers, data scientists and students worldwide with access to the power of the NVIDIA Grace Blackwell platform. Project DIGITS features the new NVIDIA GB10 Grace Blackwell Superchip, offering a petaflop of AI computing performance for prototyping, fine-tuning and running large AI models. With Projec

    NVIDIA Puts Grace Blackwell on Every Desk and at Every AI Developer’s Fingertips
    stealthinu
    stealthinu 2025/01/08
    CUDAが動いて200Bのモデルが動かせるAIターゲットのPC。128GBのユニファイドメモリ積んでて2台合わせて405Bのモデルさえ動く!そんでお値段$3000なので、これはすごくほしい。
  • LLMがオワコン化した2024年

    当ニュースレターは2023年を「SaaSがオワコン化した年」と位置づけたが、2024年は早くもAIが終わった一年であった。少なくとも大規模言語モデル(LLM)そのものの発展を、物珍しそうに追いかける時期は過ぎた。生成AIが今後どこまで賢くなるかはもちろん未知数である。しかし、既に業務で十分に役立つレベルにある現行モデルのコストが今後も下がっていくことは確実だ。 The cost of GPT-4 APIs at launch in Mar 2023 was roughly ~$30 per 1m tokens. Seeing Deepseek V-3 APIs at ~$1 per 1m tokens today. For AI application companies, cost of "intelligence" is falling significantly faster tha

    LLMがオワコン化した2024年
    stealthinu
    stealthinu 2025/01/06
    ぜんぜん本質的な部分見えてないのでは。OpenAIやGoogle、Anthropicがフロンティアモデル作ってるのはそんな短期的な儲けのためではないでしょう。ASIとシンギュラリティに最初に到達するのが目的だろうから。
  • 92万字の大作小説をChatGPT o1 pro modeに書かせたら、罪悪感でいっぱい。そして驚愕の結末に(CloseBox) | テクノエッジ TechnoEdge

    最近、AI小説を書いてもらっています。 筆者が普段やっていることの延長線上にあるようなSF小説なのですが、使っている大規模言語モデル(LLM)のバージョンが上がるたびに性能テストも兼ねて執筆を依頼しています。 最初に書いたのは9月。このときにはClaude 3.5 Sonnetを使いました。 ・写真の中の約束 8306文字と、短編にしてもちょっと短い。プロットは気に入っています。 ■ChatGPT o1 pro modeとClaude 3.5 Sonnetの合作12月6日、OpenAIChatGPTの新バージョンo1 pro modeを公開しました。使うには毎月200ドル(3万円)が必要。 これを使ってもっと長い小説を書いてもらおうと思い、ChatGPT o1 pro modeで作り、Claude 3.5 Sonnetで補作しました。 ・光の裂け目で君を待つ これもプロンプトはほぼ同じ

    92万字の大作小説をChatGPT o1 pro modeに書かせたら、罪悪感でいっぱい。そして驚愕の結末に(CloseBox) | テクノエッジ TechnoEdge
    stealthinu
    stealthinu 2024/12/26
    最後に載ってる小説、十分作品として楽しめる品質だった。というか松尾氏の活動を知ってるとフィクションと現実が混ざってきた感覚を得てしまうくらいの出来。
  • Large Concept Models: Language Modeling in a Sentence Representation Space | Research - AI at Meta

    Large Concept Models: Language Modeling in a Sentence Representation Space 概要LLMs have revolutionized the field of artificial intelligence and have emerged as the de-facto tool for many tasks. The current established technology of LLMs is to process input and generate output at the token level. This is in sharp contrast to humans who operate at multiple levels of abstraction, well beyond single wo

    stealthinu
    stealthinu 2024/12/24
    言語でCoTとかするのではなくその手前の「概念」で同様の事ができるモデル。これだとマルチモーダルモデルでも言語を使わずに深い思考ができると。この考えすごくよさそう。
  • AGIに最も近いAI「o3」登場──米OpenAI まずは「mini」を25年1月末に公開

    OpenAIは12月20日(現地時間)、新たなAIモデル「o3」を発表した。12日間に渡って開催してきた配信イベント「12 Days of OpenAI」の最終日となる12日目に発表した。同社が一般公開している中で最高性能の「o1」よりも性能が高く、汎用人工知能(AGI)としての性能を評価するベンチマークでもこれまでにないハイスコアを記録したとしている。 o3は、高度な推論が可能な「o」シリーズの最新AIモデルで、o1の次世代モデルに当たる。o3の他にも、小型モデルに当たる「o3-mini」も開発。o3-miniは、o3よりも思考時間が短く、コスト効率も優れているという。 なぜ「o2」ではなかったのかというと、スペインの通信業者Telefonicaが英国やドイツ向けに展開するブランド「O2」と被るのを避けるためと、OpenAIのサム・アルトマンCEOは説明している。 性能については、推論

    AGIに最も近いAI「o3」登場──米OpenAI まずは「mini」を25年1月末に公開
    stealthinu
    stealthinu 2024/12/22
    すごいね。なにがすごいってAGIほぼ到達したって公式にいってるのにもかかわらず世間はぜんぜん驚いてないこと。AGI到達の瞬間がこんなにも無関心に通り過ぎるってことにびっくりしている。歴史的時点のはずなのに。
  • GitHub - ltdrdata/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides a

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - ltdrdata/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides a
    stealthinu
    stealthinu 2024/12/17
    ComyUIでいろいろなモジュールを試しやすくするためのツール
  • GitHub - LykosAI/StabilityMatrix: Multi-Platform Package Manager for Stable Diffusion

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - LykosAI/StabilityMatrix: Multi-Platform Package Manager for Stable Diffusion
    stealthinu
    stealthinu 2024/12/17
    StableDiffusionの色んなモデルやLoRAを簡単に環境構築したり試したりできるツール