【画像生成AI事情】
FANBOXにアップした直葉とアスナですが、NAI(Novel AI Diffusion)ではなく、その派生モデルを使っています
結果、質感、量産性ともにNAIを凌駕しており、非常に驚きました
TwitterのAIイラストは明らかに派生モデル、もしくは非NAIのサービスの比率が高くなっております。それも当然でしょうね
今回のプロンプト作成と量産工程の研究で、以下の点で派生モデルは優れていると感じました。他の優位性を見つけない限り、NAIを使うことはもうないでしょう
―質:NAIの上澄み10%が、9割以上出てくる感じ。ポートレイトサイズ(512×768ピクセル)内なら、1流絵師のエロ絵の8~9割のクオリティに匹敵する内容が量産できる
―量:適切なプロンプト(パラメータ、関数)さえ見つかれば、「同じ方向性の体位・表情」で数十枚、数百枚を制限なく量産できる。NAIは最大4枚しか一度に生成できず、生成が終わるごとに手作業が必要だったが、派生モデルは無限に自動生成が可能
2012年。
深層学習のブレークスルーをもたらしたAlexNetは画像を機械が判別する正解率を飛躍的に向上させ、世界中に「深層学習」の威力を知らしめたそうです
その後、「深層学習」は囲碁や将棋の世界で人間を寄せ付けない強さを機械で実現させたのは周知のとおり
しかし、「画像生成」となると、2020年以前は白黒の64×64ピクセルの画像生成すら、機械が生成するのは(人力で限定された情報を関数に入れても適切な結果を出力するのは)困難だったようです
しかし、2020年に現在の画像生成AIの理論的ブレークスルー「DDPM」が誕生して以降、改良につぐ改良が重ねられ、生成できる画像は64×64からどんどんと拡大かつ精度も向上し、今や1024×1024の生成も可能です
(64×64は約4千次元、1024×1024は約105万次元の計算が必要。つまり、単純計算で260倍の難易度です)
そして、2022年
Midjourneyから始まる米国発の各種サービスでその威力は可視化され、Novel AIでついに日本の「視覚文化」をも侵食するに至り、NAIの派生モデルはついに一級の絵師の8~9割程度の品質すら達成するようになりました
2023年、AIの進化はどんな驚きをもたらすのでしょうか…