並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 541件

新着順 人気順

svmの検索結果161 - 200 件 / 541件

  • 機械学習/ディープラーニングの「数学」が学べるオススメ本

    機械学習やディープラーニングに必要な数学項目をピックアップし、そういった項目を教科書的~実践的にカバーしているオススメの「数学」本を紹介する。また中学~大学までの数学全体を学び直したい人向けの本も紹介。 連載目次 機械学習やディープラーニングを学んでいると、その内部の仕組みは計算式なので、やはりどこかしらで数式が出てくる。そこで数学の必要性を感じて本格的に学び始めるという人も少なくないだろう。 では、どのレベルから、どんな本で学べばよいのだろうか。これはケースバイケースで、あなたが大学生であれば大学レベルの本からスタートすればよいだろうが、大学から遠ざかって5年以上たつような社会人であれば、数学をもう少し基礎的なところから復習した方がいいかもしれない。 また、数学に10年以上のブランクがある場合、中学レベルの数学から部分的に記憶が欠落しているかもしれない。数学は積み上げ型の学問なので、一部

      機械学習/ディープラーニングの「数学」が学べるオススメ本
    • 人工知能規制、資本主義批判、民主主義再考

      人工知能規制、資本主義批判、民主主義再考 2023.05.22 Updated by yomoyomo on May 22, 2023, 18:58 pm JST 先週、米上院の公聴会に召喚されたOpenAIのサム・アルトマンCEOが、「AIに規制は必要」と発言したことが話題になりました。ディープラーニング分野に多大な貢献をしたAI研究の第一人者であるジェフリー・ヒントンが、Googleを退社して「AIは人類の脅威になる」と警鐘を鳴らすのと合わせ、今のAIを巡る報道には不安をかきたてる浮足立った空気があります。 冷静に考えれば、AI開発を免許制にすべきという規制を求めるサム・アルトマンの発言は、オープンソースによるコモディティ化を牽制しながら、市場で優位性を確保したところで規制を求めるルールメイキング戦略の定石に沿ったもので、要は現状の優位性の定着が目的であり、驚くところはありません。 た

        人工知能規制、資本主義批判、民主主義再考
      • ごちきか

        ごちきか# NTTコミュニケーションズ イノベーションセンターでは、社会・産業DXのためのSmart World の一環として、時系列データ分析手法の研究開発、お客さまのデータ分析支援や社内データ分析人材育成を行っています。 ごちきか(gochikika) は、これら研究開発成果やデータ分析人材育成コンテンツをまとめたナレッジベースです。大別してメインコンテンツは以下の通りです。 分析: 主に製造業の時系列データを対象として、前処理からモデリングまで一連の基本的な分析手法をPythonコード付きで解説しています。 特集記事: 比較的新しめであったり難易度の高い手法や、私たちの取り組みを知ってもらうための学会発表資料が掲載されます。また一部未分類なコンテンツが格納されています。 私たちの研究開発成果は、同じくイノベーションセンターで開発しているノーコードAI開発ツールNode-AI に搭載さ

          ごちきか
        • 【記事更新】私のブックマーク「反実仮想機械学習」(Counterfactual Machine Learning, CFML) | 人工知能学会 (The Japanese Society for Artificial Intelligence)

          Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「反実仮想機械学習」(Counterfactual Machine Learning, CFML) 反実仮想機械学習(Counterfactual Machine Learning, CFML)齋藤 優太(東京工業大学) はじめに機械学習の応用において,反実仮想(Counterfactual)─起こり得たけれども実際には起こらなかった状況─についての情報が得られるとうれしい場面が多くある.例えば,「今動いている推薦アルゴリズムを仮に別のアルゴリズムに変えたときにコンバージョン率はどれくらいになるだろうか?」や「あるユーザに仮にクーポンを与えた場合に離反率はどれくらい減少するだろうか?」などの実務現場でよくある問いに答えるためには,反実仮想についての情報を知る必要がある. 反実仮想機械学習(CFML)とは,因果効果

          • 機械学習でなんとかしようと安易に考えるな - Qiita

            世の中にはよい機械学習の結果が存在する。高い精度で推論(分類・検出)できるものがある。 だから、データの特性が、元々の想定から変わった時にも「機械学習だから、学習させればなんとかなるよね」と期待する人がいるかもしれない。 この文章は、そのような安易な考え方に立つことを戒めるために書く。 (もちろん、機械学習は今までになかった価値をいろんな分野にもたらす可能性が極めて高い。) (主張したいことは、 ビジネスとして見返りが期待できる内容の機械学習をすること。 100%の精度が期待できる機械学習は、そんなに多くない。それでも見返りが期待できる使い方をしてほしい。 1人のエンジニアに支援なしに丸投げするのではなく、チームとしての支援が有効であること。 最初の問題設定を疑ってかかること。手書き文字認識の強化で宅配便の伝票をなんとかするよりは、手書きを必要としない方がいい。 ) garbage in

              機械学習でなんとかしようと安易に考えるな - Qiita
            • 2021年05月時点で自分が実践している MLOps の情報収集方法

              2021-05-29 先日、同僚に「機械学習プロジェクトに興味があるんだけど、おすすめの資料があったら教えてほしい」と言われたので、Blog 記事に現時点でのおすすめの資料としてまとめておいたら、数年後見返したら面白そうだと思ったので記事として公開しておく。 おすすめの資料プロジェクトマネジメントや考え方、思想How Google does Machine Learningこれは機械学習を実応用する人たちにはぜひ見てほしいビデオ講義。前半が、機械学習プロジェクトの計画や、優先順位、よくあるアンチパターンについて GCP で機械学習について多く関わってきたエンジニアが解説してくれていて、非常に勉強になる。 感想記事リーン・スタートアップ ムダのない起業プロセスでイノベーションを生みだす顧客が求めるものを作ろう。機械学習にこだわったらまずだめなので… (詳しくは後述の Rules of ML

                2021年05月時点で自分が実践している MLOps の情報収集方法
              • SuikaというPure Rubyな形態素解析器を作成した - 洋食の日記

                はじめに Pure Rubyな形態素解析器Suikaを作成した。開発中でバッリバリにα版だが、思い切ってリリースすることにした。 suika | RubyGems.org | your community gem host 最も有名な形態素解析器であるMeCabもそうだが、形態素解析器は食べ物の名前がつくことが多い。「Rubyなので赤い食べ物が良いかな」と考えて、文字数とかわいらしさからSuika(スイカ)とした。 使い方 SuikaはPure Rubyで作られているため、MeCabをはじめ特別なライブラリを別途インストールする必要はない。 gem install suika バッリバリにα版なので、機能はないに等しく、オプションなしのMeCabコマンドと同様となる。 $ irb irb(main):001:0> require 'suika' => true irb(main):002:

                  SuikaというPure Rubyな形態素解析器を作成した - 洋食の日記
                • 1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

                  徳永拓之(LeapMind(株)) 1bit LLMの時代が来る? 2024 年2 月,The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits¹⁾ というタイトルの論文がarXiv上で公開され,にわかに話題となりました.“1.58 Bits” という表現はあまりなじみがありませんが,log₂(3) = 1.58 . . . ということで,パラメーターを三値にした場合の情報量を示しているようです.この論文(以下b1.58 論文とする)は,同じ著者グループによる文献2)を少し拡張したもので,大規模言語モデル(LLM)の効率化についての研究です. 本稿の前半ではこれらの論文の主張を解説し,後半ではその主張の妥当性について検討します. なお,これらの2本の論文は,本稿執筆時点では,査読を経たものではありませんのでご注意くだ

                    1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」
                  • 巡回セールスマン問題(TSP)の面白いと思った応用3例(色・単語・音楽) - Qiita

                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 巡回セールスマン問題 巡回セールスマン問題(以下TSP)についてご存知でしょうか。 完全グラフと全ての辺の移動コストが与えられた上で、全ての点を1回ずつ通り、始点に戻る巡回路の中で総移動コストが最小となる巡回路を求める組合せ最適化の問題です。 今回の記事の趣旨とは異なるため、ソルバーの詳細及びTSPを解くアルゴリズムの紹介は他の文献に譲ります。(個人的には辺の移動コストが定数でないTSP (dynamic TSP)にも興味があるので追ってまとめたいと思います。実応用としては、渋滞が発生して移動時間が変わる等の状況を考慮することに相当しま

                      巡回セールスマン問題(TSP)の面白いと思った応用3例(色・単語・音楽) - Qiita
                    • Papers with Code - Machine Learning Datasets

                      CIFAR-10 (Canadian Institute for Advanced Research, 10 classes) The CIFAR-10 dataset (Canadian Institute for Advanced Research, 10 classes) is a subset of the Tiny Images dataset and consists of 60000 32x32 color images. The images are labelled with one of 10 mutually exclusive classes: airplane, automobile (but not truck or pickup truck), bird, cat, deer, dog, frog, horse, ship, and truck (but no

                        Papers with Code - Machine Learning Datasets
                      • 「線形回帰」「決定木」「SVM」「k平均法」「アプリオリ法」とは? 機械学習の5大アルゴリズム

                        ダウンロードはこちら 目的や分析するデータの内容によって、選択すべき機械学習アルゴリズムは変わる。例えば製品管理に適したアルゴリズムと、売り上げ予測に適したアルゴリズムは同じとは限らない。アルゴリズムの真価を引き出すには、事前に目的を明確にすることと、各アルゴリズムの特徴を理解することが必要だ。 本資料は、代表的な5つの機械学習アルゴリズム「線形回帰」「決定木」「SVM」「k平均法」「アプリオリ法」のそれぞれの仕組みと、適する用途を説明する。最適なアルゴリズム選びの一助となれば幸いだ。 プレミアムコンテンツのダウンロードはこちら Copyright © ITmedia, Inc. All Rights Reserved.

                          「線形回帰」「決定木」「SVM」「k平均法」「アプリオリ法」とは? 機械学習の5大アルゴリズム
                        • JX通信社における実践的MLOps

                          3年でバックエンドエンジニアが5倍に増えても破綻しなかったアーキテクチャ そして、これから / Software architecture that scales even with a 5x increase in backend engineers in 3 years

                            JX通信社における実践的MLOps
                          • 画像化したテキストから直接翻訳する全く新しいニューラル機械翻訳モデルが登場【論文速報】

                              画像化したテキストから直接翻訳する全く新しいニューラル機械翻訳モデルが登場【論文速報】
                            • 深層学習VS決定木:テーブルデータ分析の未来|PKSHA Delta

                              深層学習の技術が著しく進歩した結果、コンピュータビジョンや自然言語処理、音声信号処理などの分野では深層学習モデルの性能が古典的な手法のを大きく上回っており、すでにスタンダードなアプローチになっています。 しかし、テーブルデータを扱うタスクにおいては、深層学習の有効性は明らかになっていません。本記事では、AI Solution 事業部のアルゴリズムエンジニアよりテーブルデータにおける従来手法と深層学習の比較論文のご紹介をしていきます。 背景近年、テーブルデータを扱う深層学習モデルも登場し、一部の論文では決定木ベースのモデルと同等かそれ以上の性能を示しています。しかし、私が実務で試す中では決定木ベースのモデルの方が性能が高く、学習と推論が速く運用コストでも優れているため、深層学習モデル採用には至っていません。 より一般的なテーブルデータのタスクにおける、決定木ベースモデルと深層学習モデルとの性

                                深層学習VS決定木:テーブルデータ分析の未来|PKSHA Delta
                              • 地下アイドル間の関連性をネットワークとして分析したり楽曲派を可視化したりしてみた話 - 蛇ノ目の記

                                地下アイドルアドベントカレンダー 12/16の記事です。メリークリスマス。 12/16の記事です。 12/16の( adventar.org 前回の更新から8ヶ月以上が経ってしまった。更新をサボっている間に名古屋に行ったり、大阪に行ったり、福島に行ったり、名古屋に行ったり、大阪に行ったり、名古屋に行ったり、名古屋に行ったり、大阪に行ったり、名古屋に行ったりしていた。さて今年は何回名古屋に遠征したでしょうか。名古屋は近所わかる。 アイドル現場まとめは、"その月に行った現場のまとめ"に留めないと持続可能性が低いと痛感。感想などを細かく書いていくとコストが大きくなりすぎてしまう。来年からはもっと簡素にまとめたい。 それでは本題始まります。 概要 Spotify Web APIを用いて「関連アーティスト(アプリ上では"ファンの間で人気"と表示される)」を取得し、地下アイドルの関連アーティストネット

                                  地下アイドル間の関連性をネットワークとして分析したり楽曲派を可視化したりしてみた話 - 蛇ノ目の記
                                • 最小限のPythonコードでAutoMLを実現するローコード機械学習ライブラリ「PyCaret」

                                  最小限のPythonコードでAutoMLを実現するローコード機械学習ライブラリ「PyCaret」:AutoML OSS入門(6)(1/4 ページ) AutoML OSSを紹介する本連載第6回は、ローコード機械学習ライブラリ「PyCaret」を解説します。さまざまな機械学習ライブラリのラッパーであるPyCaretは、データ分析のあらゆる工程でコードの行数を削減します。

                                    最小限のPythonコードでAutoMLを実現するローコード機械学習ライブラリ「PyCaret」
                                  • PromptBase | Prompt Marketplace: Midjourney, ChatGPT, DALL·E, Sora, FLUX & more.

                                    Upload your prompt, connect with Stripe, and become a seller in just 2 minutes

                                      PromptBase | Prompt Marketplace: Midjourney, ChatGPT, DALL·E, Sora, FLUX & more.
                                    • MLIR がもたらす新たな中間表現の可能性

                                      はじめに 半導体の微細化が鈍化し、ハードウェアによる高速化が困難になっている現状において、ソフトウェアによる計算の高速化が喫緊の課題となっています。この状況において、特定のドメインの問題を解くことに最適化された言語であるドメイン固有言語と、そのコンパイラであるドメイン固有コンパイラの活用が望まれています。 ドメイン固有コンパイラの構築の際には、開発を容易にするために、既存のコンパイラ基盤であるLLVMを活用することが考えられます。しかし、LLVM はドメイン固有コンパイラの構築にはあまり向きません。この理由は、LLVM の成功と表裏一体の関係にあります。 LLVM が成功した理由は、コンパイラの処理を適切に分割し、独立したモジュールとして機能させたことにあります。このモジュール化において中心的な役割を果たしているのが、LLVM で用いられる中間表現(Intermediate Represe

                                        MLIR がもたらす新たな中間表現の可能性
                                      • Interpretable Machine Learning

                                        Interpretable Machine Learning A Guide for Making Black Box Models Explainable. Christoph Molnar 2021-05-31 要約 機械学習は、製品や処理、研究を改善するための大きな可能性を秘めています。 しかし、コンピュータは通常、予測の説明をしません。これが機械学習を採用する障壁となっています。 本書は、機械学習モデルや、その判断を解釈可能なものにすることについて書かれています。 解釈可能性とは何かを説明した後、決定木、決定規則、線形回帰などの単純で解釈可能なモデルについて学びます。 その後の章では、特徴量の重要度 (feature importance)やALE(accumulated local effects)や、個々の予測を説明するLIMEやシャープレイ値のようなモデルに非依存な手法(mo

                                        • 【後藤弘茂のWeekly海外ニュース】 人間の脳から産まれたディープラーニングのプルーニング

                                            【後藤弘茂のWeekly海外ニュース】 人間の脳から産まれたディープラーニングのプルーニング
                                          • Techable(テッカブル) - サイト閉鎖のお知らせ

                                            Techable サイト閉鎖のお知らせ 長らくのご利用、誠にありがとうございました。 当サイトは2024年12月31日をもちまして閉鎖いたしました。 これまでのご支援に心より感謝申し上げます。

                                              Techable(テッカブル) - サイト閉鎖のお知らせ
                                            • 東大、“世界最高性能”のディープフェイク検出AIを開発 フェイクニュースやポルノなどの悪用根絶に期待

                                              東京大学大学院情報理工学系研究科の研究チームは4月26日、動画内の人物の顔が本物かどうかを判定する、ディープフェイク検出AIを開発した。このAIは、既存研究の性能を大きく上回り、世界最高性能の評価を示したという。より高い精度でディープフェイクの検出が可能になるため、悪用の根絶に期待できるとしている。 ディープフェイクを検出するAI技術の多くは、訓練時に学習した作り方に倣ったフェイク画像などしか検出できず、それ以外のものを検証する際には性能が大きく低下する問題を抱えている。 こうした未知のディープフェイクに対し、Microsoftは2020年に、疑似フェイク画像を作り、それを使った検出AIの学習方法を提案している。しかし、この手法では、非常に検出が容易な疑似フェイク画像を生成する場合があり、それらの画像を学習した検出AIは、高圧縮率による潰れた画像や、高/低露光下のフェイク画像に対して、検出

                                                東大、“世界最高性能”のディープフェイク検出AIを開発 フェイクニュースやポルノなどの悪用根絶に期待
                                              • GitHub - llm-jp/awesome-japanese-llm: 日本語LLMまとめ - Overview of Japanese LLMs

                                                [ English | Français | 日本語 ] 日本語LLM・海外LLMのパラメータ数の推移。日本語モデルの情報は本記事、海外モデルの情報は LifeArchitect.ai の Models table を参照しています(ただし、図のスペース上一部のモデルは省略。また、海外モデルのパラメータ数は推測値を含む)。修正・追加等ありましたらお知らせ下さい。 この記事は、一般公開されている日本語LLM(日本語を中心に学習されたLLM)および日本語LLM評価ベンチマークに関する情報をまとめたものです。情報は、有志により収集されており、その一部は論文や公開されているリソースなどから引用しています。 ::: warning 以下の点について、あらかじめご理解とご了承をお願いいたします 本記事の内容は、完全性や正確性を保証するものではありません。これらの情報は予告なく変更されることがあり、また

                                                  GitHub - llm-jp/awesome-japanese-llm: 日本語LLMまとめ - Overview of Japanese LLMs
                                                • ニューラルネットワーク入門

                                                  Pythonコードで理解するニューラルネットワーク入門 ニューラルネットワークの仕組みや挙動を、数学理論からではなく、Pythonコードから理解しよう。フルスクラッチでニューラルネットワーク(DNN:Deep Neural Network)を実装していく。 第1回 Pythonでニューラルネットワークを書いてみよう(2022/02/09) 本連載(基礎編)の目的 ・本連載(基礎編)の特徴 ニューラルネットワークの図 訓練(学習)処理全体の実装 モデルの定義と、仮の訓練データ ステップ1. 順伝播の実装 ・1つのノードにおける順伝播の処理 ・重み付き線形和 ・活性化関数:シグモイド関数 ・活性化関数:恒等関数 ・順伝播の処理全体の実装 ・順伝播による予測の実行例 ・今後のステップの準備:関数への仮引数の追加 第2回 図とコードで必ず分かるニューラルネットワークの逆伝播(2022/02/16)

                                                    ニューラルネットワーク入門
                                                  • 機械学習セキュリティのベストプラクティス – Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning –

                                                    機械学習セキュリティのベストプラクティス – Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning – 論文紹介 概要 「Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning」は、米国のNIST(National Institute of Standards and Technology)が策定を進めている機械学習セキュリティに関するベストプラクティスのドラフトであり、機械学習システムの安全確保を目的として、機械学習にまつわるセキュリティを「攻撃」「防御」「影響」の3つの視点で分類している。 NISTIR8269はブログ執筆時点(2020年7月9日)でドラフト版であるが、「NIST SP8

                                                      機械学習セキュリティのベストプラクティス – Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning –
                                                    • ZOZO推薦基盤チームの2023年の振り返りと現状 - Qiita

                                                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 株式会社ZOZO 推薦基盤チームリーダーの @f6wbl6 です。この記事は「ZOZO Advent Calendar 2023」のカレンダー7の最終回(25日目)です。 この記事では、ZOZOの推薦基盤チームで私とチームメンバーがこの一年、サービス面・組織面で取り組んできたものをいくつか取り上げたいと思います。なおこの記事のタイトルと冒頭の文章は弊社 CTO 兼執行役員の @sonots が書いた以下の記事のオマージュです。 2023年以前の取り組み まず前提として、推薦基盤チームではこれまでにどのような施策を実施してきたのかを簡単に

                                                        ZOZO推薦基盤チームの2023年の振り返りと現状 - Qiita
                                                      • AI Project Management Flow and Build Trap Review

                                                        不確実性の高い機械学習プロジェクトを自己組織化されたチームで健全かつ最大化されたゴールに向かうために

                                                          AI Project Management Flow and Build Trap Review
                                                        • KubeflowによるMLOps基盤構築から得られた知見と課題 - ZOZO TECH BLOG

                                                          はじめに こんにちは。SRE部MLOpsチームの中山(@civitaspo)です。みなさんはGWをどのように過ごされたでしょうか。私は実家に子どもたちを預けて夫婦でゆっくりする時間にしました。こんなに気軽に実家を頼りにできるのも全国在宅勤務制度のおかげで、実家がある福岡に住めているからです。「この会社に入って良かったなぁ」としみじみとした気持ちでGW明けの絶望と対峙しております。 現在、MLOpsチームでは増加するML案件への対応をスケールさせるため、Kubeflowを使ったMLOps基盤構築を進めています。本記事ではその基盤構築に至る背景とKubeflowの構築方法、および現在分かっている課題を共有します。 目次 はじめに 目次 MLOpsチームを取り巻く状況 MLOps基盤の要件 MLOps基盤技術としてのKubeflow Kubeflowの構築 ドキュメント通りにKubeflowを構

                                                            KubeflowによるMLOps基盤構築から得られた知見と課題 - ZOZO TECH BLOG
                                                          • 大規模言語モデルを作る、拡張する

                                                            大規模言語モデルの作りかたを 1. 事前学習 (Pre-Training) 2. 事後学習 (Post-Training) 3. モデル選定・評価 (Model Selection / Evaluation) に分けてご紹介します。 https://dbsj.org/dbsj_le…

                                                              大規模言語モデルを作る、拡張する
                                                            • flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録

                                                              自然言語処理に限らず、機械学習関連のプロジェクトではスタート時は、なるべく複雑なコーディングをせずにシンプルなベースラインモデルを低コストで作成し、そこからデータの傾向やタスクの複雑さを把握することが重要です。 ところが自然言語処理では前処理のコストが高く、最低限でも単語分割、ベクトル化、深層学習を用いる場合は事前学習された埋め込みベクトルを準備する必要があります。その後は他のタスクと同様にモデルの保存方法や、予測のパイプラインで悩みポイントを抱えることが多いと思います。 最近はAutoMLを始めとした機械学習の自動化が進歩し、初手から高性能なモデルをブラウザ上で数クリックで作成できますが、中身がブラックボックスである故に前述のデータの傾向やタスクの複雑さを把握することを目的とした場合には適切とは言えない側面があります。 本記事では自然言語処理を対象にモデルの中身が参照可能でかつ少ないコー

                                                                flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録
                                                              • OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog

                                                                地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を経て、ローカルLLMを中心としたAIソリューションを主軸に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、性的違和の治療に一歩足を踏み出しています。 【IIJ 2022 TECHアドベントカレンダー 12/8(木)の記事です】 Whisperの追加学習に挑む2022年の冬 2022年アドベントカレンダー企画だそうです。 いかがお過ごしでしょうか。 私はもう興味を引くものに没頭するしか楽しみがないもんで、PCに向かってぼんやり面白いネタはないかなーと探す日々です。 最近はすっかりディープラーニングにズブズブで、とうとう数式かくのが面倒なあまり手書き入力のためのペンタブレットを買いました

                                                                  OpenAI Whisper に追加学習をさせる試み | IIJ Engineers Blog
                                                                • 驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita

                                                                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 最近、3D業界で大きな衝撃を与えた「3D Gaussian Splatting」1について、ご存知でしょうか?数少ない写真から、目を奪われるほど美しい三次元シーンを再構成できるデモを見て私も大感動しました。なぜこんなに美しいのか、どんな技術で実現したのか、興味が湧いています! "普通の3D物体ではなく、カメラの移動に合わせて、水面に映る景色も正確に表現しています。これはなかなか凄い..." 私も時間をかけて論文や公開されたコード2を勉強しました。本家の実装はCUDA化されており、難解な部分が多く、論文に書かれていないこともあり

                                                                    驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita
                                                                  • 数学者が書いた深層学習講義 数学と錯視の科学館電子出版部

                                                                    大学1年で学ぶ微分と行列を使って,特に畳み込みニューラルネットワークの深層学習の基礎事項を数学的厳密性を重視して解説します.数学はどのようになっているのだろうか,という疑問を持たれた場合に参考になることを目指しています.適宜,改訂版・増補版を発信していく予定です。更新はこのサイトに掲載していきます。 公開日 2025/1/6. Ver. 1.2 (2025/1/7) typo. Ver. 1.3 (2025/1/8)typo. Ver. 1.4 (2025/1/10) 文の微小修正 最新版 Appendix Ver. 1.3(2025/1/12) 文の追加 ブラウザーによっては pdf が文字化け等する場合があります。その場合は pdf をダウンロードしてご覧ください。 引用の際は 新井仁之, 数学者が書いた深層学習講義,畳み込みニューラルネット篇,MATLABプログラム付き,2025.

                                                                    • トップカンファレンスにおけるデータセットシフトと機械学習 - Ridge-institute R&D Blog

                                                                      こんにちは,株式会社Ridge-iのリサーチチームの@machinery81です. 今回はNeurIPS2020で発表されたデータセットシフトを扱う機械学習に関連する論文を紹介します. 本記事は,Ridge-i主催の論文読み会で発表した以下の資料に基づいています. TL;DR 機械学習におけるデータセットシフト Covariate Shift Target Shift Concept Shift Domain Shift Sample Selection Bias Taxonomy of NeurIPS2020 papers about Dataset Shift 論文紹介 Rethinking Importance Weighting for Deep Learning under Distribution Shift Importance Weighting for Distribut

                                                                        トップカンファレンスにおけるデータセットシフトと機械学習 - Ridge-institute R&D Blog
                                                                      • 大規模言語モデル入門 / LLM introduction (SES2023)

                                                                        ソフトウェアエンジニアリングシンポジウム2023 (SES 2023)

                                                                          大規模言語モデル入門 / LLM introduction (SES2023)
                                                                        • 図とコードで必ず分かるニューラルネットワークの逆伝播

                                                                          連載目次 本稿は、ニューラルネットワーク(以下、ニューラルネット)の仕組みや挙動を、数学理論からではなくPythonコードから学ぶことを目標とした連載(基礎編)の第2回です。「難しい高校以降の数学は苦手だけど、コードを読んでロジックを理解するのは得意!」という方にはピッタリの記事です。 前回の第1回では、本連載の目的や特徴を示した後で、「ニューラルネットの訓練(学習)処理を実現するために必要なこと」として、 ステップ(1)順伝播: forward_prop()関数として実装(前回) ステップ(2)逆伝播: back_prop()関数として実装(今回) ステップ(3)パラメーター(重みとバイアス)の更新: update_params()関数として実装(次回)。これによりモデルが最適化される という3大ステップを示しました。前回はこのうちの「ステップ(1)順伝播」まで実装が完了しています。今回

                                                                            図とコードで必ず分かるニューラルネットワークの逆伝播
                                                                          • ディープラーニングのモデリングの経験則を語る会についての有識者からの反応まとめ

                                                                            かまろ/Camaro @mlaass1 ディープラーニングのモデリングの経験則を語る会をやってみたい。理論的な背景は不要(あってもいい)で、こういうときはこうする、こういうデータにはこうすると上手くいく、初手はいつもこれ、などのヒューリスティックを無責任に語る会。 2020-08-03 12:23:09 かまろ/Camaro @mlaass1 画像だとデータの特徴と合わせてこの辺り話してみたい。 ・image sizeとmodelの大きさ ・batch sizeの決め方とBatch norm ・fp16使うか ・デバイス(GPU/TPU)の違い ・間違いないaugmentation ・間違いないscheduling ・frameworkの違い(tf/pytorch) ・lossの選び方 ・optimizerの違い ・headの設計方法 2020-08-03 12:46:04 かまろ/Cam

                                                                              ディープラーニングのモデリングの経験則を語る会についての有識者からの反応まとめ
                                                                            • 9 Distance Measures in Data Science

                                                                              Distance Measures. Image by the author.Many algorithms, whether supervised or unsupervised, make use of distance measures. These measures, such as euclidean distance or cosine similarity, can often be found in algorithms such as k-NN, UMAP, HDBSCAN, etc. Understanding the field of distance measures is more important than you might realize. Take k-NN for example, a technique often used for supervis

                                                                                9 Distance Measures in Data Science
                                                                              • Algorithms for Decision Making

                                                                                • SVMは復権し得るか? - 渋谷駅前で働くデータサイエンティストのブログ

                                                                                  Kaggleはすっかりただの野次馬の一人になって久しいんですが、しばらく前に行われたPetFinder.my - Pawpularity Contestというコンペで優勝者がSVR(サポートベクター回帰)を使ったことが話題になっていたというのを聞いて、NN全盛のこのご時世に意外だなと思ったのでした。 しかし、よくよく考えてみればかのVapnik御大がかつてSVMを考案する際にベースとしたアイデアはNNとは方向性の違う代物だったわけです。故に、例えばSVMとNNとがどのような点で異なるかが「見える化」出来れば、SVMが復権するための条件のようなものが見えてきそうです。 ということで、久しぶりに「サンプルデータで試す機械学習シリーズ」をやってみようと思います。実はDNNについては6年前にも似たようなことをやっているのですが、SVMとDNNとでサンプルサイズを変えながら比較するというのはやったこ

                                                                                    SVMは復権し得るか? - 渋谷駅前で働くデータサイエンティストのブログ

                                                                                  新着記事