近頃、CGアニメーションの習作を作っています。 ぼくは映像のお仕事、SCIRE(スキーレ)を2015年に始める前から、アート映像作品をつくっていました。その前は写真、絵を描くこと、陶芸もしていましたが、映像が好きになりました。 まず、表現したいことがぼんやりとあります。そこで人や風景を撮影し、コンピュータで加工をして作品にします。Macでレタリングした映像は一度書き出してしまえば、それ以上は変化しない固定化された作品となります。ぼくは、よりインタラクティブな変化が起こるような映像体験を求めていました。それにはコードを書くことが必要な難しいソフトウェアを触る必要がある。このコードを書くという行為が僕にとっては高い壁となりました。プログラムの勉強はむずかしかった。操作するための英語や数学の知識も不足している...など、作りたいものが抽象的にあっても、作っていく過程で技術的にも知識としても難しい局面を迎えて壁の前に立ち尽くす。 とはいえ簡単には諦められないので、難しいことは避けて、よりその時の自分にとって直感的で触りやすいUIのソフトウェア,AfiterEffectsなどを工夫して、その中で自分ならではの風味をつけていく。そんな方向で作品を作りました。色々と面白いことはできるようになった一方で、難しいことを避けて通っている感覚が抜けず、気がつくとはじめにインタラクティブなアートを作りたいと思い始めた17歳の頃から20年近く経っています。そこでAIの時代がやってきました。凄まじく進化するAIに光を見ています。AIと共につくりはじめた現在点を記録し、まとめました。
この1年、世界のどこかで新しいAIの誕生が話題にのぼり、それを使った作品が生まれるやいなや、息つく間もなく新たなAIが誕生しています。画像生成のStyleGANやMidjourney、StableDiffusionがあり、OpenAIのChatGPTなど、AIのモデル名にも聞き馴染みがではじめたのではないでしょうか? 特に去年ぐらいから、いわゆる生成モデル、深層学習モデルのAIが"民主化された"という印象をぼくは持っています。一部の人が高性能なコンピュータを使ったり、クラウドを契約しなくても、サービス料を支払うだけ、なんなら無料でAIを動かしてなにかを作れる。各AIを直接触ってもいいし、APIが公開されることで様々な既存サービスに組み込まれたAIを体験できます(例:お絵描きばりぐっどくんはStableDiffusionで画像を生成しします)。MidjourneyにいたってはDiscordのサーバー内で動いています。 画像生成は目を見張る進化を遂げていますが、対話型の生成モデルであるChatGPT(GPT4)の驚きは別格という感じがします。対話型のAIはChatGPTだけではなく、GoogleもFacebookもいわゆるメガテックも取り組んではいるのですが、ここでもっとも企業規模としては小さい(Microsoftの資本を受けているので、色濃く影響しあう関係ではありますが)OpenAIが画期的なAIをつくりました。 暦本純一さん(東京大学大学院 情報学環)は最近のAIの進化のムーブメントを、「コンピュータサイエンス始まって以来におもしろい」という発言していました。(引用:NewsPicks | ChatGPTは「ヒューマンインターフェース」をどう変えるか 動画内 8:40あたり)
https://newspicks.com/movie-series/87?movieId=2528
ChatGPTは現行バージョン(GPT4)の以前から「コードを書ける」ことが早々に話題になっていましたが、当初、ぼくはGoogleで検索する代わりのような、Wikipediaの代わりのような、Google翻訳の代わりのような使い方をしていました。その時の気分は情報精度の確認をする程度だったかもしれない、どういうことを正しく記述し、どういうことが弱いかという挙動だけを見ようとしたのかもしれない。ところが、徐々に対話型AIのすごみを実感し、これは大変なことがおこったと認識が変わり始め、次第にこのAIとクリエイティブなことができないかを模索しはじめます。人によっては...クリエイターによっては...アイデンティティが崩壊しかねないのではないかとも思い始めます。ついに幾度となく挫折したProcessingというコードを書くソフトでのCGアニメーションの作成に着手しました。 当初は動かないコードばかりを作り続けていました。たとえば粘菌類のシミュレーションをして、それが音楽と同期する...などといったような。自分自身がソフトの使い方もわからない中ではどうすることもできず、AIはコードは出すけれど、これをぼく自身でまともに検証することができない状態です。最初はなにも作れないままでした。 そこで、もうちょっとシンプルに発想します。 単純に「波の動き」や「風に吹かれる粒子」、そういう動的な景色を作れないかな、と。 そこでできたのが以下のようなものです。波の動きのシミュレーションです。
お、こんなことができるのか。触るうちに、こうしたい、ああしたいが湧いて出てくる。 ここのコードは機能的に何を表しているのか、各パラメータは描画のどこに影響を与えているのか。図示された映像を何度も再生成しながら、パラメータを触り、コードをさわっていくうちに、ちょっとずつ理解が深まっていきます。まさにこちらが学習している。 この繰り返しの中で、おもいついたのが、数学の式や宇宙のサイクルなど、人間がこれまで観測してきたこと。波の動きにしてもそうですが、数値化しやすいパターン、普遍的とも呼べるようなことをシミュレーションできないだろうかと考えました。 太陽と地球の関係をシミュレートするコードをCHAT-GPTにきいてみました。
これ自体は面白味がなかったのですが、ちょっとコードを触ってより自分が求めているようなことを表現していく作業ができるようになってきます。この次は宇宙や銀河の誕生の瞬間を見たくなりました。 宇宙の大規模構造形成理論。それを反映させたアニメーションです。ランダム配置された粒子はコードを動かすたびに、毎回違う形状からスタートするように設計しました。いつも違う動きを見せる生成アート(Generative Art)です。粒子の間には一定感覚以下で線を描画するようにして、実際には存在しないのですが巨大な"構造物"感を意識しました。
この次はブラックホールを想像。実際のブラックホールは延々とその吸引を止めることがないのかなあと想像しますが、吸引した後、ブラックホールが呼吸するような、いわば不自然なアニメーションを作りました。
次も点、線、面を意識したシリーズですが、数学のカオス理論を取り入れました。すべての点が予測不能な形で複雑に動き回るのですが、その点の間を線で描画するのを過剰なまでにしたらまっしろになるのではないかと思い作成。ほどよい情報量にするとそれは絹のような、なにか繊維質のものが織り込まれているように見えたので、ドイツ語名:Weben、和名:星を編むと名付けました。
ProcessingはJavascriptで動きます。CHAT GPTは事実上、コンピュータサイエンスで使用するあらゆる言語に対応していると推測しますが、特にPython(パイソン)に強いと聞きます。Processingではよく動かないコードを書くことがあるのですが、ぼくのほうがいわゆる"わかってくる"と、質問の仕方が変わってくるのか、返答のコードの精度が上がっているように思います。もちろん、CHAT-GPTのバージョンがあがることでも精度は当然変わるでしょう。 手をつかって絵を描くこと、土をこねること、写真を撮ること、楽器を弾くこと、映像を撮ること、編集すること...と、やってきたことが糧になって、なにかここから新しいことがはじまる予感がします。 一方で、クリエイターのアイデンティティ崩壊という言葉もよぎります。これはYellowMagicOrchestraの細野晴臣さんが今では当たり前のコンピュータを使い、プログラムでシーケンスを作曲することをはじめた70年代の終わりに、"一度ベーシストとしてのアイデンティティーが崩壊した"と言及しています。その後、細野さんはコンピュータを使った作曲をさらに追求し、ついに生演奏の面白さの境地(この方の場合は単にそれだけでもないのが"すごい"のですが)に達しているように思います。生演奏をしていた人がコンピュータならではの面白さを追求し、そしてまた、生に戻ってくるということですね。また細野さんは"音楽というのは自分のアイデンティティであり、生きがいなんだ。"という言葉もあります。 音楽の世界ではYMOの時代の途中でMIDI規格が誕生し、よりデジタル親和性が高くなり、まったく手で演奏をしなくても、サンプリング解像度の問題はありますがフェアライトCMIなども登場し、ついにはコンピューターだけで音を作るDTMの時代が早々にやってきます。よりバーチャルな状態という意味では、"感性"で音楽を作るわけです。他の分野はどうでしょうか。 AdobeのIllustratorやPhotoshop、InDesignが登場する前の世界は、写植や活版がありました。AndyWorhol はシルクスクリーンの作品で有名ですが、80年代の半ばにAmigaというコンピュータで最初のデジタルアートを作っています。自動制御でペンやマジックなど"先"を変えれば、どんな絵もドローイングできる機械もありますし、3Dプリンタで陶芸作品も家だって作ることができるようになりました。
この記事を書きはじめてから、わずかな間にもAdobeのFireflyが使えるようになり、今までできなかったことが一瞬間的にできるようになっています。EUをAI規制のニュースが広がっています。 そもそも何かを表現する人、作り物をする人は「自分にしかできないこと」を日々しています。誰かが誰かを見てなにかを似てると言ったとしても、作る人にとっては、他のなにかや、だれかとは常に唯一無比なのです。アイデンティティというのは自然に、初めからあるものではなく、形成していくものだろうなと。遺伝子自体はタンパク質でしかなのに形質という特性からいわゆる"遺伝的"とよぶような。継承するものがあったり、また幼少期の育った環境によって"遺伝的なもの"をそこで育むわけで。アイデンティティは人が持つ概念のひとつであり、生きていく上で大事な概念だと。好きなこと、こだわりたいことはその人にある。でも表現したいことが宇宙のように広がっている時、その表現はさまざまなアプローチがあってもいいのではないのだろうか。 AI出現前のクリエイターのアイデンティティがどこにあるかによって...その所在によっては、アイデンティティが崩壊してしまう人がいるでしょう。みんなが同じ解釈をするなんてことはありません。AIがあろうと、なかろうとブレない、変わらない、いや今後、より力強くなる人もいると思います。ぼくはAIの出現は、人の生きることの主体性に関わってくるからかと推測します。 人類学者のティム・インゴルドさんの本を読むと、その中で多種多様な種類を分類してその差異を認識して収まるのではなく、ひとつに統合していく試みが提唱されています。AIの発達は脅威的で規制をどうするかの議論が進んでいますが、社会システム上の規制があれば、だれかは守られ、だれかは見捨てられるということはなく、この技術と共に生きる道を、人それぞれが思考しながら手を動かしながら歩むことではないかと考えています。すでにあるたくさんの人工技術が、私たちの心のありようで、敵にも味方にもなるように、わたしという 人の主体が試される事態なのではないかと。 これだけ論じていきましたが、AIの発達で社会が変化することに恐れはあります。 はじめて車を運転した時やはじめて飛行機に乗った時のような。自分の領分や理解できる範囲を超えることと遭遇するような時のような。恐怖と期待が半分ずつ入り混じっているような感覚があります。 これはきっと答えが絞れないことを考えている。 あなたと共に、AIと共に、ひとりでも手を動かして、つくりながら思考していきます。