
OpenAI「4o Image Generator」で生成した画像。画像生成AIサービス「Midjourney」で作成した2枚の画像を参考にアップにして二人を一緒に描くようにと指示したもの(筆者作成) OpenAIが3月25日、ChatGPT(GPT-4o)用の新しい画像生成機能「4o Image Generator」をリリースしました。“ジブリ風”の画像が作れるとアピールされたのがわかりやすかったこともあり、世界的に大騒ぎになりました。日本でも大手メディアの読売新聞、日経新聞、NHKなどが著作権上の懸念があるのではないかと大々的に報じていました。実際に試してみたところ、今までの画像生成AIの常識をひっくり返すような使い方を実現していました。OpenAIは詳細を明らかにしていませんが、これまでの画像生成AIでは一般的だった「拡散モデル」ではなく、近年、研究が進んでいた「自己回帰モデル」を応
はじめにこんにちは、AI Picasso社の開発チームです。皆様に重要なお知らせがあります。高品質AIアート用画像生成AI、Emi 3 を商用利用可能で無償公開します。この画像生成AIは、基盤モデルの学習においてオプトアウトが実施されており、追加学習において無断転載画像を学習していません。 Emi 3は以下のURLから無料でダウンロードできます。 Emi 3の特徴1.表現能力が高いこのモデルは、イラストやアニメ、マンガのようなAIアート生成に特化しています。モデルマージやフルファインチューニングといったAI Picasso社のノウハウを用いて表現能力が高い画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 Happy Holidays!といっている少女手に炎をまとった男子基盤モデルに Stable Diffusion 3.5 Largeという最先端のモデルを用い
Stable DiffusionやDALL-E 3などの画像生成AIでは、拡散モデルと呼ばれる生成モデルが使用されています。新たにアメリカのハーバード大学やタフツ大学、オーストリアのウィーン工科大学などの研究チームが、「拡散モデルは本質的に進化的アルゴリズムだ」と主張する論文を発表し、話題を呼んでいます。 [2410.02543] Diffusion Models are Evolutionary Algorithms https://arxiv.org/abs/2410.02543 Diffusion Models are Evolutionary Algorithms https://gonzoml.substack.com/p/diffusion-models-are-evolutionary This AI Paper Introduces Diffusion Evolution:
セルシスは9月20日、イラスト作成ソフト「CLIP STUDIO PAINT」(クリスタ)の非公式プラグインやソースコードに関する声明を発表し、非公式プラグインの配布などを一切認めない方針を示した。セルシスは「プラグインSDK規約では、当社サービス以外でのプラグインを利用する目的での不特定多数への配布は認めていない」と表明している。 同日午前10時ごろ、X上であるユーザーが「画像生成AIを使ったクリスタ用プラグインを開発している人がいる」という投稿をしており、注目を集めていた。その書き込みによると、このプラグインはすでにGitHubで公開済みであったため、セルシスにこの件をメールで報告したという。 この投稿に対して、クリスタ利用者とみられるユーザーを中心に賛同する声が殺到。「クリスタの方針に反する機能を勝手に導入するから営業妨害になるのでは」「自分もセルシスにメールした」などの声の他、利益
これらのデータセットに含まれる画像のみを使っているため、学習画像に対する透明性は限りなく高いと考えております。もし問題のある画像が見つけたら、ご報告いただけると今後の開発に助かります。なお、同様の考え方を持って作成されたモデルとして、Stable Audio Open 1.0があります。 日本語と英語の文章がそのまま通じる画像生成を使ってみたいが使えないクリエイターの中には、プロンプトが英語であるから、使い勝手がわるいと思っている方も少なくないと思います。実際、画像生成AIに慣れている人も時には翻訳ソフトを使って入力している方もいるようです。しかし、翻訳ソフトを間に挟むことでニュアンスが変わるという問題も従来指摘されています。 そこで、本画像生成は日本語を日本人の話す感覚と近いかたちで処理し、画像を生成できるようにしました。具体的には入力テキストを処理する技術を通常の言語モデルから大規模言
Appleがオープンソースの画像生成AIモデル「MDM」をGitHubで公開 米Appleは8月9日(現地時間)、画像生成AIモデル「Matryoshka Diffusion Models(MDM)」および、モデルをトレーニングするためのPythonパッケージ「ml_mdm」をオープンソースとしてGitHubで公開した。 MDMは、2月に研究論文として発表されていたもの。従来の方法では、低解像度モデルと複数のアップスケーリングモジュールを組み合わせた段階的なモデルを使用しており、高次元空間での拡散モデルの学習は計算上あるいは最適化をする上での課題を抱えていた。 これに対して、MDMは異なる解像度モデルを並行して生成し、その情報を相互に共有する。こうした情報を利用しつつ、低解像度から高解像度へと段階的に学習を進めることで、高解像度モデルの学習がより安定するという。 最大1024×1024ピク
テキストによるプロンプト(指示)から精細な画像を生成する画像生成AI。無料もしくは安価で利用できる環境が増えるなか、「どのAIを利用すればいいの?」という疑問も自然と出てくる。 費用、手軽さ、描画速度など比較項目はいくつか考えられるが、やはりいちばん気になるのは“画風”ではないか。 もちろんプロンプトなどにより好みの画風にすることはある程度可能だが、モデルそれぞれの特徴や得意分野があるため、ある程度の傾向は存在する。 この記事は、現在注目を集める4つの主要な画像生成AIモデルに同じプロンプトを与えて生成された画像を比較することでそれぞれの傾向を明らかにし、モデル選択の助けになることを目的としている。 ※一部の配信先では画像や図表等が正確に表示されないことがあります。その場合はASCII.jpで配信中の記事をご確認ください 取り上げる4つのモデル それでは、本記事で比較する4つのAIモデルを
画像生成AI「Stable Diffusion」の開発元として知られるStability AIが、オープンソースの音楽生成AI「Stable Audio Open」を公開しました。Stable Audio Openは、文章で指示するだけで最長47秒の音楽を生成できます。 Stable Audio Open — Stability AI https://stability.ai/news/introducing-stable-audio-open We’re excited to announce Stable Audio Open, an open source model optimised for generating short audio samples, sound effects and production elements using text prompts. This
いまさら聞けないMidjourneyの使い方。1分で思い通りに画像を作るコツ2024.05.16 18:0015,995 David Nield - Gizmodo US [原文] ( satomi ) これで苦手が克服できるなら安いもの。 最近はAI画像生成アプリが急増中だけど、人気・内容ともにトップランナーを走り続けるのは2022年7月にベータ版デビューを果たしたMidjourney(ミッドジャーニー)です。 無料ではありません。利用料は月額10ドル、年間96ドル。これだけ払えば毎月3.3時間の作画タイムが与えられます(1枚の画像のレンダリングにかかる時間は通常1分程度)。タダで利用できないのは痛いけど、とにかく最終成果物のクオリティが高いので、AIアートをたくさん揃えたい人なら一度は使ってみたいと思うツールなのではないでしょうか。 そこでここでは、これから利用する人(1か月のお試し利
画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ
Adobeが画像生成AIモデル「Adobe Firefly Image 3 Foundation モデル(ベータ版)」を2024年4月23日に発表しました。既にウェブ版Adobe Fireflyで同モデルを用いた画像生成が可能になっていたので、実際に使ってどんな画像を生成できるのか確認してみました。 アドビ、Adobe Firefly Image 3 Foundation モデルを発表 https://www.adobe.com/jp/news-room/news/202404/20240423_adobe-firefly-image-3-foundation-model.html Adobe Firefly Image 3 Foundation モデル(ベータ版)は、従来のFirefly Imageと比べて高品質な画像を生成できるAIモデルです。同モデルはすでにベータ版のPhotosho
英Stability AIは4月17日(現地時間)、画像生成AIの「Stable Diffusion 3」と「Stable Diffusion 3 Turbo」、AIチャットbot「Stable Assistant」を発表した。Stable Diffusionの新版はまだプレビュー段階だとしているが、開発者プラットフォームからアクセスできる。 Stable Diffusion 3に「Awesome artwork of a wizard on the top of a mountain, he's creating the big text "Stable Diffusion 3 API" with magic, magic text, at dawn, sunrise.」(夜明けに山頂にいる魔術師が、魔法で大きな「Stable Diffusion 3 API」という文字を日の出の光の中に
2月29日に、文化庁で「文化審議会著作権分科会」の第7回が開催されました。著作権の専門家によってその制度について議論をする場ですが、今年度は2023年7月より「AIと著作権」について議論されてきました。3月に文化庁から政府に報告する「AIと著作権に関する考え方について(素案)」の最終案に近いものが発表され、1月下旬から2月上旬にかけて募った「パブリックコメント(パブコメ)」の結果報告もされるということもあり、注目されました。登場したのは「AIと著作権に関する考え方について(素案)令和6年2月29日時点版」、パブコメの結果を受けて、これまでの内容に微修正が施されていました。しかし、そこからわかったのは、文化庁の一貫したスタンスでした。 文化庁 文化審議会 著作権分科会 法制度小委員会(第7回) パブコメへの反応は「素案の内容周知」 発表物から議論を集めたのが発表資料に「パブコメの結果」が追加
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く