人気ブログランキング |

2019年 03月 13日 ( 3 )

世界構造を理解するための装置 人間ってナンだ?超AI入門シーズン2 第二回「感じる」




AIが肉体を補う。

AIは今ロボット技術というカラダを手に入れている。その時「触れる」「聴く」などの互換も生まれるのか。感じる、認識する。その本質に迫る。鍵となる技術はディープラーニング。

今のロボットは障害物も飛ぶ。バク転もできる。足の圧力センサーで踏んだところの状況を認識し体を立て直す。

電気通信大学教授横井浩史による「筋電義手」という人間の筋肉の信号をとって義手が開いたり閉じたりする。脳からの指令で筋肉の表面で筋電位という放電が起きるのを感知。義手を動かす。

リアルタイム学習で手の動作と筋電位の関係をAIが学ぶ。使う人によって異なるパターンを人工知能が解析。0.2秒くらいは今のところ遅れがある。大人には通常できないが高校生は0.2秒の遅れに対応できる。

人間の「感じ方」には年齢も関係する?

この筋電義手があれば遠隔操作もできる。

身体性。知能は身体のなかに相当な機能が入っていて、体の付き方が変わると脳のボタンの押し方が変わってくる。近い将来身体が拡張されたとき脳にどんな変化が起きるのか。バーチャルとリアル、その境界を越えて感じ方すら変わってしまうかも。

(筋電義手を)面白がっていたこと自体が面白い。凄い単純なんだけれど、相当面白いのは

脳があって体が合って、手があって。そこに義手を付ける。
脳はセンサーからの入力とアクチュエーターへの出力を行っている。

脳から見たら指令を出すことと感覚を受け取ることしか関係がない。手の先に何があろうが関係ない。逆に言うと義手と本当の手の違いは何か?脳から見ると違いはない。

「何かを出力すると何かが返ってくる」構造を脳は学習する。例えば赤ちゃんは真っ暗闇の中で生まれて目から等の入力はあるが関係性が分からないから適当に動かす。最初の発見は「手が動く」こと。脳からの信号で動くことの関係の発見は大きい。

入力と出力の関係から世界の構造を解き明かす。人間は本能的に「何かを動かすと何かの結果が変わる」ことに対して面白いを感じるように設定されている。義手が面白いのは赤ちゃんの頃の面白さの再発見。

子どもの行動こそ「感じる」とは何かを知る第一歩?

『意志とは?』神経学者ベンジャミン・リベットの実験
入力と出力、脳からの指令で筋肉が動く。でも実際の動作はその指令系統だけでないことを明らかにした実験。動作の0.2秒前に意識的な決定があったが、さらにその0.35秒前にそれを促す無意識的な脳活動があった。

子どもができることをどうやってAIに学習させられるか。コンピューター科学者マービン・ミンスキーも「無意識でやっている学習が非常に重要だ」と。

また「モラベックのパラドクス」という言葉もある。
ロボット研究者ハンス・モラベックによる言葉で、「一見して難しそうなタスクよりも一見して簡単なタスクの方が難しい」。大人がやっているタスクは難しそうだがコンピューターには難しくない。寧ろ子供がやっているモノを掴むだとか投げるだとかの方がコンピューターにやらせるには難しい。けれどディープラーニングでその状況は変わりつつある。

米国西海岸、バークレー、カリフォルニア大学バークレー校
AIを搭載したロボットに子どもの知能と運動を学習させる研究が行われている。

中心となっているのがカリフォルニア大学バークレー校ピーター・アビール教授。箱にあいた穴にブロックを嵌め入れる動きを学習。ロボットが知っているのは自分の指先にあるブロックの位置情報だけ。箱の中にある目的地に近づけようとする。その試行錯誤の過程で穴を通さないと目的地に到達しないことを学び、その結果ブロックをはめ込むことが出来る様になる。

アビール「このロボットを研究するにあたって最大の課題はロボットの学習です。AIの最近の学習例をみるとほとんどがディープラーニングです。巨大なニューラルネットワークに学習させ自動的に判断させるのです。

このロボットをみると大きいので大人のようだと思われるかもしれませんね。しかし我々の狙いは子どもの知能をロボットで再現することだと言えるでしょう。

実はチューリング博士も1940~50年代に提唱しているのです。子どもの知能さえAIが再現できれば自ら学び大人の知能を持つに至ると。重要なのは子どもの知能を構築すること。それさえできれば大成功です。

このロボットの能力ではブロックを同形の穴に入れられるか?それがちょうどよい課題です。子どもができるには1時間かそれ以上かかります。このロボットもブロックを同形の穴に入れるのに1時間かかります。白紙の状態から身につけるまで1時間を切るくらいの能力なのです。学習中のロボットと子どもとの類似点はとても興味深いです。」

松尾
「もう一個難しいことをやっているのが、脳に入ってくる情報というのはデータでいうと『2018年11月O日にセンサーID11番の値が0.982でしたよ』みたいなのがずっと続き、『アクチュレーター3番に17.5という値を出力』がずっと続いている。このデータの入出力から世界が三次元であることを見つけ出している。」

やっていることはスイッチを入れて帰ってくるところのみだが、そこから世界の構造をみつけだしている。こんなシンプルに学べるのならば人間が作れるのではないか?というのがまさにディープラーニングの世界で起ころうとしていること。

こういうデータの束から世界の構図と言うか内部モデルを作り出そうとしている研究がこの1年2年の間にでてきている。

人間は単純なデータの出入力の連続で複雑な世界の構造を理解していく?

この出して帰ってくるものから学ぶことが人間の賢さの土台を作っている。人間の知能は2階建てだと考えているが、その1階部分は身体性と言うか環境の中に知覚して行動してのループからいろんなものを紐解いていく。

1階と2階も関係あると松尾氏は考えていて、たとえばスポーツ選手は言葉での刺激でもヒントを学ぶことが出来る。

為末「身体がないと人間の知能はないのか?」

松尾「非常に重要な昔からのAIにおける問い。」

徳井「頭だけが生まれた場合他のことから学習することはないのか?」

松尾「センサーとアクチュレーターは世界中に散らばっていてもいい。そこから脳が学習すれば。人間の身体という必然性はない。必ずしも知能において身体性は必要じゃないんじゃないか。身体性があった方が学習が早くなるのだけれどもなくても入出力の関係を上手にモデル化する仕組みが出てくるのではないかという方向も見えてきつつある。」

人間の脳が世界中のセンサーと直接つながる時代が来る!?

ディープラーニングの技術が一般の日常に活かされるには、画像認識の技術が良くなって、外界に働きかけるアクチュレーターの精度が上がれば色んな運動の制御ができるようになる。義手のようにパターンの学習をどうさせるかは難しい。例えば模倣学習という手法では人間が手本をみせることで学習させ、もう一つは「良き結果」を提示し試行錯誤させて学習させる方式もある。

カルフォルニア大学バークレー校ではAIを搭載したロボットアームによる手術システムが研究されている。
皮膚の下の腫瘍を取り除き、再び縫合する手術の実験。ベテランの医師なら患者の肌に触れ、患部の様子を感じて繊細にメスを操るはず。そんな人間のデリケートな感じ方も再現したい。模倣学習も取り入れられAIも複雑な動きも効率的に身に着けることを目指している。

ピーター・アビール教授は模倣学習に加えて新しい手法を取り入れている。

アビール「当研究所ではすべての学習方法を試しています。深層教師あり学習深層強化学習など。ロボット学習のほとんどは深層強化学習と深層模倣学習ですね。我々は他に大人に似た学習も試しています。転移学習という新たなディープラーニングです。

現状から学ぶだけでなく過去に学んだ色々な前提を使います。大人が過去に学んだことと現状を結び付けるのと似ていますね。過去にも学んできたのだから今に活かしてより速く学習してほしい。そう考えるのが『転移学習』の考え方です。とても重要な学習方法であり誰もが求める能力でしょう?ロボットには過去のスピードよりも速いスピードで将来は学んでほしい。過去の経験を通して学びの速度をどんどん速めてほしいというわけです。」

転移学習

子どもって良く走る。走り回ってるうちに走り方が上手くなる。サッカーをやるのも上手くなる。サッカーをやっているとボールの跳ね方なんかも学習してくるので今度別の球技をやったときにボールの軌道を読めて上手にプレイできる。

あるところで身につけた知識を別のところで使うことが人間はかなりやっている。

大谷選手は転移学習や模倣学習をやりまくっているのではないかと想っている。練習量自体は普通の人とそんなに変わらなくてもそこからの学習が異常に効率がいい。ちょっとした動作でも”自分の体をこう動かしたらこう返ってくるはずだ、あれそうならないぞ?”とずーっとやってるはず。また他人の動作を見て自分の体に置き換えて模擬的に学習する。そういう風に如何に効率的に学習するかを相当やっているのではないか。

それと同じような学習が模倣学習や転移学習や教師なし学習といった技術。

為末「運動音痴の人は出力と言うか力の入れ具合の問題というより、やってみたことが結果どうだったというフィードバックの受け取り方が下手な可能性もある?」

松尾「複数の潜在的な要素に分解するのが下手なんじゃないかと。複数の要素の中からクリティカルなポイント、単純な構造を見つけ出す、Disentanglement(もつれをひも解く)能力が運動神経がいい人は高いのではないか。」

高橋礼美(補聴器メーカー製品担当)「最近の補聴器はあまり周りの騒音を感じさせないではっきり言葉を聴きとれるようなカタチになっている」

松尾「ノイズかノイズでないかは難しい判定では?」

高橋「補聴器は360度環境をスキャンしこの音は会話、この音はノイズと瞬時に判断しノイズだけを抑制する」

松尾「意味内容によってフィルタリングすることはかなり高次な知的機能では?」

高橋「そこは脳が注意を振り分けることで対応」

デンマークにあるオーティコン補聴器エリクスホルム研究センターでディープラーニングによる研究が進んでいる。

ラース・ブラムスロー(リサーチエンジニア&プロダクトマネージャー)
「私たちは実際のユーザーに焦点を当て開発しています。厳重に管理された環境下でユーザーにリスニングテストを行っての開発です。聴覚障害を持つ方にお願いし同時に話される2つの声に集中してもらいました。

2つの声が混じっている中で集中するのは難しいタスクです。しかしディープニューラルネットワークを使い2つの声を両耳に分けることで彼らのパフォーマンスが向上しました。

このシステムは時間をかけてあなたのまわりの人の声を学習していきます。配偶者、親戚、同僚などの声をもとにライブラリーを築きシステムが対象者を切り替えることで集中したい声の抽出が簡単になります。例えばディナーパーティーなどで新しい人と出会った時、その人の明瞭な声を3分間聞くことでシステムはその声を識別できるようになります。

今後5年間で補聴器技術にディープニューラルネットワークを活用したいと思っています。」

音声の個性を感じて聞き分ける。

松尾「人間の聴覚は非常に複雑なことをやっていて文脈によってはノイズになるものが文脈によってはノイズにならない。『なんか音してない?ブーンって音してない?』って言われると耳を澄まして『あ、してるねぇ』と会話する。それっていうのは一見してノイズなものが会話のコンテンツになる。これらを凄く上手に切り分けている。人間の脳はとても複雑なことをやっている。」

徳井「ネコが『ムミャーオ』と鳴いているのを人間の赤ちゃんと間違えることと同じで。ノイズもちゃんと聞き分けられてないとノイズなのかヒトの会話なのか分からない」

松尾「最初は意識的に行っていたものが無意識下で行われるようになって自動化されてきているのかもしれない」

埼玉県和光市ホンダ・リサーチ・インスティチュート・ジャパンで聴覚に関してAIを用いたユニークな研究がおこなわれている。聖徳太子顔負けの能力を持ったロボット。

一斉に注文を話されても対応できるロボット。

中臺一博(プリンシパルサイエンティスト)「こちらは我々が開発したヒューマノイドロボットで音を聞き分けるという機能を持っている。穴が開いているところにマイクロフォンが16個ついていて、16個のマイクを同時に使って複数の人が同時にしゃべっても聞き分ける。

マイクが少しずつ違う位置についている。違う位置から人がしゃべるときに音が届く時間がちょっとずつ違ってくる。この音が届く時間の差を利用して聞き分ける。方向を聞き分けその方向の音だけを抽出する。そうすると色んな音が混じっていてもその方向の音だけがとれ、それを音声認識でAIの技術で大量のデータからの学習で処理する」

音声のレイアウト(配置)を感じて聞き分ける

現在11人まで聞き分けられるというこの技術、AIが感じる力を発揮することで人間の命を助けることもできる。

中臺「五月蠅いところでも音を聞き分けられるから、災害地で人命救助するとき、カメラで探してもがれきに埋もれては発見できない。そういう時に『助けて』という声だとか携帯の音を検出できればいいわけで、ドローンにマイクを付けて飛ばすことで五月蠅い環境でも音を検出できるなどの展開を考えている。」

松尾「人間の脳で聴覚の情報を扱っているのは視床下部を通じて入ってきて大脳皮質で処理する。大脳皮質は聴覚だけでなく映像の情報、言語の情報なんでも扱う。

モダリティーといってデータを連合して人間は認識しているので一つのモーダルの情報が他の情報に影響を与えるというのは良くある。人間は複合的に理解している。それは世界の構造を見つけ出すことを早く解きために色んな情報を複合的に利用していることがあるのではないか」

脳はマルチモーダル(複合的)に世界を感じている

為末「さっきの補聴器に関して選手が集中してゾーン体験になるときって、観客の音が引いて自分の足音だけとかバットの音だけに成ったりすると聴く。そういうのを意図的に作り出したらみんなすごい集中状態に導けるのでは。逆に本番に弱い選手は観客の音が聞こえすぎる」

「聴覚」を制御すれば身体能力まで制御できる!?

松尾「今ロボットの研究でcuriosity(好奇心)っていう要素を入れよう研究がかなり広がってきていて、なぜかというと人間も同じことをしていると飽きる。なぜ飽きるかというと世界の探索をしなければならないので自分が世界モデルを作れてしまった領域から外の知らない世界に興味を持つというのが結構重要なこと。知らない=予測が当たらない。自分がこういうことが起こると思ったのにそれが起こらない、予測の乖離度が大きいほどより学習が早く進むという研究がある。

子どもの脳のAIをつくりだすために最初に徹底しておいた方がいい要素が好奇心」



今回はシーズン1よりさらに進んだ議論が提示されましたね。

好奇心というものがヒトの本能にプログラムされているのは人間の大きな目標が「この世界を探索し構造を理解していくため」。また私は運動音痴なので「フィードバックの受け取り方がヘタ、問題の要因の分解がヘタ」という指摘にはなるほどなぁと覆いました。

子どもの知能をつくりだすことがAI研究の大きな目標ですが、そうして生んだAIが自律的にホモサピエンスを越えていくというのは恐ろしくもあり。一方で身体が知覚には必ずしも必要でなく、遍くネットワークと知覚を連動させるという話は人間の進化として興味深く聴きました。

by wavesll | 2019-03-13 21:57 | 小ネタ | Comments(0)

情報産業に足りないのは「身体の知覚」か 人間ってナンだ?超AI入門シーズン2 第一回「会話する」



2018年11月中国のAIアナウンサーが流暢にニュースを読み上げ驚かせた。AIは誰の声でもつくれる。早口言葉だって得意。

「AI研究でこれから進歩すべきは本当の意味で言語を理解する能力です。コンピューターが私たちと交流するようになれば言葉の本当の意味をより深く理解できるようになるのです」

言葉を使うとは。言葉の意味を理解するとは。会話することの本質ってなんだ?その謎に迫る技術こそディープラーニング。

坪井一菜(女子高生AIりんな開発者)。今のりんなは電話のように声で会話できる。まだ素っ頓狂だけれども女子高生っぽい言葉で友達のような感覚を表現。ユーザーは740万人を超える。

雑談で人を知れる。人間は会話の時少しの飛躍を楽しんでいる?

今のりんなの会話は第三世代の共感モデル。相手がこの話題を続けたいか他の話題に行きたいのか推測する。ストーリーを決めて返答するのではなくその場で返答を考えての返事をつくっている。

自然な会話を続けるための対応:相手に新しい話題を切り出す, 質問する, 相手の発言を肯定, 聞き手に回る, あいさつを返す 等

りんなもシークエンストゥシークエンスという大量の会話データから「相手の意図を判断するAI」と「返答を生成するAI」の二つで自然な会話をプログラムしている。

AIはどのように会話している?
相手の話がポジティヴかネガティヴかは品詞ごとに分解し解析するのに加え、RNN(リカレントニューラルネットワーク)を駆使しどんな端午の組み合わせがどんな順序で並んでいるのか文章全体の文脈からニュアンスを解析。

Seq2Seq(シークエンストゥシークエンス)は、人が相手の言ったことを全部聞かないと答えられないように、エンドオブセンテンス(EOS、文の終わり)が入って初めて出力すること。つまり相手の言った情報がすべてたまる技術。文章という意味のまとまりをはっきりと認識する。単語から文章、さらにはさらに長文までためることが出来る様になればさらに向上していく未来がある。

世界的なAI研究者、フェイスブック人工知能研究所所長ヤン・ルカンさんはこうした会話する技術が言語の翻訳でも役立つという。

「RNNはまた異なったものでとても頻繁に文などの一連のデータ(の処理)に使われます。例えば英語から日本語にある文を翻訳したい場合一単語ずつ読み取り意味表現を組み立てます。これは簡単に言えば長い数字のリストです。この長い数字のリストから日本語を正しい順番で出力するため別のニューラルネットワークに入力されます。つまりリカレント(=再帰する)ネットワークです。基本的に文の長さによりネットワークの大きさも変わるのが特徴です。」

RNN、そしてSeq2Seqという技術の発達。それによりAIは相手の話を文章で受け止められる段階まで来た。

金田隆志(音声合成開発者)

感情表現、語尾を上げたり下げたりの表現力をディープラーニングで人間に近く学習し表現。AIも人の声を学習し感情に訴えることができる。でも本当に言葉に感情を込めるなら言葉の意味を知らねばならない。会話するAI、最大の課題。

意味を理解するとはどういうことか。文字が入ってきたとき文字を出すので会話が成立するようにみえるが本当に成立しているか。

ジョン・サールの「中国語の部屋」:ある作業員の仕事は外から入ってくる文字列をマニュアルに沿って変換して送り返すこと。例えば感情的な言葉には感情的な言葉を返す。こうすると何も言葉の意味を理解していなくてもやりとりが成立する、つまり意味が分かっているとみなされてしまう。

ノーム・チョムスキーが考案した文「Colorless green idea sleeps furiously(色のない緑のアイディアが激しく眠る)」は意味が分からないが文法的には成立してしまっている。意味は分からないのは矛盾しているから?なぜこういうナンセンスな文が存在し得るのか?

松尾先生によると多くの学者が言うことを総合すると、人間は言葉を使うこと以外は大体サルと同じ。サルやイヌはどういうことをやっているかというと「環境を知覚し運動する」こと。その上に言葉のレイヤーがあり、「環境→知覚→運動」は「言葉」と2階建て構造で連動している。「言語レイヤー」から「具体的な体験」をイメージするのが意味理解ということ。AIは言葉を聞いて具体的な体験を想像出来たら意味を理解したと言える。

「ほっそりしててもぽっちゃりしてても猫は猫」と言い切れるのが人間の凄いところ。

言語学者フェルディナン・ド・ソシュールは人間はネコという言葉(シニフィアン:言葉・意味するもの)とシニフィエ(概念・意味されるもの)を結び付けて理解しているが、AIはネコという概念を思い描くことができないとされていた。概念をもたないAIは少しでも違う見た目のネコを猫だとは思えない。ところが…

ヤン・ルカン「ディープラーニングがここ数年で大きな進歩をもたらしました。AIに自動的に学習させ概念と概念の関連を見出せるようになりました。AIに世界を観察させたくさんの概念を身につけさせることも期待できます。概念の集合は私たちが「常識」と呼ぶものになりのです。世界についての十分な概念が集まればAIにも「常識」が芽生えてくるはずです。」

AIは言葉と概念を結び付けて会話できるようになるのだろうか?

米国・ワシントン州レドモンド、マイクロソフトリサーチ。世界中からトップクラスの人工知能研究者が集まっている。ここで意味理解につながるある研究が行われている。

人工知能研究者ペンツァ・チャン氏とチウユアン・ファン氏。
「きょうは私たちがやっているtext-to-image(文章から画像を生成)の研究をお見せします。『ドローイングボット』と一般的に呼ばれているものです。このAIは自然言語で1つの文を入力するとそれに沿った画像を返します。

『この鳥は赤くて白くてとても短いくちばしを持つ』と入力すると画像を出す。例えばこの鳥。この鳥は赤くて白い、くちばしもとても短い。この鳥も凄くリアルに見える。ほかのどの鳥とも違う。」

他の文章を入れても複雑な文章でも画像を生成。

「この画像を見ると与えられた文『黄色い』や『頭が黒い』に対応している。だからここは黄色いし頭が黒くなっていてくちばしも短い。でも鳥はいろいろポーズをとっている。背景も違う。これはAIの力。AIは自然言語の説明にあるちょっとした不確実性を補完できる。そして画像をより詳細なものにできる。

text-to-imageという純粋な自然言語の説明を元に画像を生成する研究はまだ始まったばかりだ。長期的な目標は機械の概念を人間の概念に近づけることだ。機械が人間と同じような理解を持つようにしたい。」

近い将来AIも人間と同じ概念を手に入れる!?

近い将来AIも人間と同じ概念を持ち意味理解できるのか。人工知能研究の第一人者、カナダ・モントリオール大学ヨシュア・ベンジオ教授に伺う。
「脳のニューロン1つ1つにデータ処理能力は無いのです。それがルールに従うように集まってシステムを成します。シグナルを受けシグナルを出す。大量のニューロンが力を合わせると非常に知的な能力を発揮するのです。この仕組みは脳でもコンピューターでも同じことです。」

人間の脳の仕組みも解析すれば物理的な電気信号の連続。学習を適切に繰り返せばいつかAIは人間と同じような知性を持つにいたるのでしょうか?そしてAIが人の話す言葉を本当に理解し会話する日は来るのでしょうか?

ヨシュア「私たちの体や脳は言ってみれば物理法則に従うだけ。ただ非常に複雑なシステムだという科学的な視点をとるならば私たちは本質的に機械なのだとも言えますね。ランダムな『でたらめ』があったり複雑ですが我々は機械なのです。機械としての人間について理解をしっかりと積み重ねていけばその理解を応用して知的な機械を組み立てることもできます。それこそが私たちのデザインした新たな人工知能なのです。

これを受け入れない人もいます。私たち人間は絶対に違う。どんな機械にも再現できない知性を持つと信じる人もいます。なぜなら人間には何か自然を超えた『魂』のようなものがあると。それはしばしば宗教的な信念とも結びついています。しかし科学的な視点から言えば本当にそんなものは無いのです。私たちは単なるシステム、ただし壮大で複雑な機械なのです。

いつの日か知的な機械を作ることが出来る。できない理由はありません。その前に地球を滅亡させなければの話ですが。」

2階建ての2階部分の技術は進展しヒトと同じくらい、人以上になってきている。これからは「1階」と「2階」が連合して動くようになってくる。比較的近い将来にヒトの意味理解を大きく超える技術が出てくるかもしれない。今2階だけなのに人間と同じくらいになっているのはデータの量が多いから。1階とともに行くと人を超える意味処理が可能になる。意味理解が本当にできるのは5年~10年ほどでは。



第一シーズンと重なるところもありましたが、text-to-image技術の話や「2階建て」の話は面白かったです。どうもメディアだけに触れてると「身体性」が失われる気がしたのですが、「言語レイヤー」と「具体的体験」が両輪で知覚に成るという話が腑に落ちました。コンサル等の言葉が上滑りするのは「身体の知覚」が伴わないからかも。「何を話すか」よりも「誰が話すか」が重視されるのも身体性が伴っているかが大切にされているからかも何ても想いました。

囲碁で人知を超えた手が生み出されるように、「1階」も手にしたAIがヒトより上位の知的存在になる、そんな時代の遷り目に我々はいるのかもsりえないと改めて空恐ろしくなった次第でした。

by wavesll | 2019-03-13 20:10 | 小ネタ | Comments(0)

『search』 最新型の2時間サスペンス

c0002171_00180423.jpg
「すべてがPCのディスプレイの中で展開する」という触れ込みで昨秋Twitterで広告が出まくった映画「search」。どうせならPCでみたいとレンタル開始されるのを待っていたのでした。

突然失踪した娘を探す父親のサスペンス・ドラマ。映画的感動というより相当にいいミステリーもの2hドラマといった感じでしたが、アメリカのハイスクールでのアジア系の孤立とか、まさにTumbrとかFacebookとか動画配信サービスを探査してドラマが進展するところなんか、中々楽しめました。

本筋とは違うのですが、この映画、stage6によるフィルムだそうで。stage6は動画ストリーミングサイトとしては当時はYoutubeより画質が良かった覚えがあります。今はこうして映画会社になったのかと感慨深いものがありました。

by wavesll | 2019-03-13 00:26 | 映画 | Comments(0)