正当性を保証出来ない「生成AI」は、「自動運転システム」での使用は禁止だ!

【投稿者コメント】


【キーワード】

[生成AIは悪魔の技術]、[決断を委ねると滅亡]、[速攻禁止廃棄せよ]


【件名】

「人命を左右する制御システムとして採用するに際して、動作の正当性や安全性を検証・担保出来ない以上は、「生成AI」を「自動運転システム」として使用する事は禁止すべきだ!」


【投稿本文】


【1】生成AIで5秒後の道路状況を予測する自動運転システムが実用化間近?


 下記の【以下転載1】の報告は、「生成AIで5秒後の道路状況を予測、自動運転スタートアップ」と云う報告だ。

 5秒後と云えば、時速100Km/時で高速道を走行中であれば、5秒間で、5*100000/(60*60)=138.9m=約140m進んだ先の状況だ!

 ほぼ、急ハンドルを切り返す時間はあるだろうか。案外、余裕はありそうで、実は、余裕などはない!

 欲を云えば、せめて、10秒先の、280m先くらいは予想してくれよ!と云いたくなるが・・・

 なんだ、レベル4の自動運転(運転サポートレベル)ってこんなものか?の感は強い!

 しかも、予想状況は、高速道入口の左並走帯に入る際やその右の通常走行帯へ入る直前の、前方/後方走行車両との衝突回避予測だ!

 これだと、まるっきり、通常走行時の交通状況予測だから、100%衝突を回避出来て当たり前だ!

 問題は、想定外の異常事態に、どこまで、うまく対応出来て、事故を回避できるかだ!

 たとえ、生成AI等の最新AI技術を総動員しても下記の異常事態にうまく対応出来るものだろうか?

 いずれも、TV放映される、道路上の異常事態で、ほぼ、予測は困難だ!

①老人運転の対向車が高速道を時速120Kmで逆走して来た!

②国道の交差点を、信号無視の車両が時速80Kmで突っ込んで来て横からぶつかりそうだ!

③車間距離を取らなかった後続車が、対向車線を逆走で並走して来て、急ハンドルで自分の走行車線へ割り込みそうで衝突しそうだ!

④③の急ハンドルで割り込んで来た車両が、逆ギレして、突然、急ブレーキを踏んで来て、追突しそうだ!

⑤高速道の前方左路側帯にあったブルーシートが風で飛ばされて来て、自分の車の前方ガラスの全面を覆(おお)い隠して、前方が、約20秒間全く見えない!

 これらの、異常者の運転車両の行動予測を完璧に行う事など、無理な相談か?

 稀(まれ)な異常事態であっても、100%安全に対処出来なければ、レベル5の「完全無人運転レベル」など、まだ、100年早い!

 異常者を高速道や一般道から、完全に排除出来ない以上、「自動運転システム」が対処するしかないか?

 ①~⑤の有効な対処方法は次の通りだ。

①逆走車を道路側が検知して、一定距離に近づいたら、車両に無線通知して、左路側帯へ緊急停止させるか、又は、同様に、逆走車を緊急停止させる。道路情報システムと連動させる。

②信号機システムが、黄色/赤色信号でもスピードを落とさない事を察知したら、交差する信号を青色→黄色→赤色に変えると同時に、サイレン等の警報を鳴らす。信号機システムと連動させる。

③道路上のカーチェイス・競争(狂走)を止めるには、「自動運転システム」の搭載を義務化して、システムで強制的に車間距離を取らせて、追い越し車線への出入りは、安全な状況でしか出来ない様に歯止めを掛ける! 又は、有名カーレーサ並みの運転技量を持つシステムが緊急対応して衝突を回避する!

④前方又は後方の車両の異常運転を察知したら、スピードを落として左路側帯へ緊急停止する!

⑤前方視界が閉ざされれば、レーダやカメラが察知して、誤差10cmの「道路ナビシステム」のジャイロで車両位置を検知しながら、「レベル5の夜間濃霧時自動運転」に切り替わって、速度を緩やかに落として、左路側帯へ緊急停止する!

 下記の【以下転載1】の報告では、「2023年10月のサンフランシスコでの「クルーズ」の事故( https://getcruise.com/news/blog/2024/cruise-releases-third-party-findings-regarding-october-2/ )」にあたかも、対処可能とも思える書きぶりだが、

 事故報告書では、「走行車線前方の倒れた歩行者を検知・認識出来なかった事が原因だ」としており、報告者のシステムでは、そんな事故状況でも、自動運転車の路上テスト条件にして、事故は回避可能と明記しているが・・・
 つまり、走行車線前方の倒れた歩行者は、レーダやカメラで、前方障害物として検知対処可能と云っている!

 センサーの能力や精度を上げれば、単なる障害物は容易に検知可能だろうが、上記の①~⑤の様な、稀(まれ)な、異常事態でも、正確無比に、察知・予測出来るものなのか疑わしい・・・

 世界に冠たるIT企業のGoogleApple社とて、完全自動運転のレベル5どころか、サポートレベルのレベル4の異常事態に完全に対処出来ないと自動運転車の開発から手を引いいてしまったのに、いちベンチャー企業が開発・実用化可能なものだろうか?

 人命を左右する制御システムとして採用するに際して、動作の正当性や安全性を検証・担保出来ない以上は、「生成AI」を自動運転システムとして使用する事は禁止すべきだ!


【2】機械学習と生成系AIとの違いは?/どう云う経緯で生成系AIが生まれたのか?


 下記の【以下転載1】の報告の自動運転システムに組み込まれた「モーション予測システム」の「生成AIモデル」には、今流行りの「生成AI」技術が実装されていると云うが、そもそも、その「生成AI」は、今までのAI技術の「機械学習」や「深層強化学習」とどの様に、異なるのだろうか?

 「生成AI」技術がどんな技術なのかは、「機械学習」→「深層強化学習」→「機械翻訳」→「生成AI」へ研究開発が進展してきた開発の履歴を時系列で、捉(とら)えた方が、判り易いだろう。
 下記の【以下転載2】の報告に依れば、

①「モデル」「データ」「計算機」が揃いディープラーニングは円熟の時期を迎え、2012年の「ILSVRC」(画像認識の精度を競うAIの競技会)で、初出場したジェフリー・ヒントン教授のチームの「ディープラーニング」に依る画像認識AIの精度は他のAIに比べて10%以上も高い驚異の精度を叩き出して圧勝したのを契機に、一気にディープラーニングブームが始まった。

②画像認識に於いては人間を上回る精度を出せる様になったが、自然言語処理(NLP)、つまりマシンに人間の言葉を理解させて、動作させるには大きな壁があった。なぜなら画像認識に於いては順序は関係ない(画像の中の猫はどこにいても猫)が、言語処理に於いては順序が重要(「私がAIについて学ぶ」と「AIが私について学ぶ」は異なる)からだ。

③最近まで、データを時間的に処理し分析する為に、リカレントニューラルネットワーク(RNN)や長期短期記憶(LSTM)の様なモデルを主に使っていた。これらのモデルは、時系列データを扱えると云う意味で、これまでのニューラルネットワークの手法に対して画期的であり、インターネット上の文章を人間が情報を付与する「アノテーション」が原則必要ないと云う意味で、データの問題もクリアしていたが、長い文章を扱うのは苦手で、SiriやAlexaの様なシンプルな音声アシスタントには向いていたが、それ以上の事をやろうとすると精度が全く足りないのが実態だった。

④「生成AI」ブレークスルー前夜の状況を整理すると、「自然言語AI」は、既に存在する「計算機」と「データ」を活用出来る「新しいモデル」が足りない状態、つまり、肝心な「新しいモデル」が、最期の、欠けたピースだったのだ。

⑤そうした状況に風穴を空ける「モデル」が、Googleの言語翻訳研究チームから生まれた。それが「Attention Is All You Need」と云う有名な論文で発表された「Transformer」だ。これが生成AIに於ける大きなブレークスルーになった。なぜ、Googleの翻訳研究チームから生まれたかと云うと、彼らも「翻訳」と云う「語順」が重要な、「自然言語」の問題に取り組んでいたからだ。【<<機械学習から生成AIへの一大転機>>】

⑥「Transformer」と云う重要な「仕組み」の特徴は、次の3点だ。

(1)Embedding(埋め込み):埋め込み(Embedding)とは、入力されたトークン(≒単語)を自然言語処理ネットワークが扱いやすい低次元のベクトル空間へとマッピングするプロセスを指す。一言で言うと、言葉同士の意味の近さを数学的に表現しやすくする為の処理だ。

(2)Multi Head Attention(マルチヘッドアテンション):「Transformerモデル」では、自己注意機構(Self Attention)と云って、一文の中の各単語が他の単語とどれくらい関係しているかの関連度スコアを計算する。そして、Multi Head Attentionでは、その関連度スコアを1種類だけ計算するのではなく、複数の異なるスコアリングを並列で行い、それらのスコアを最終的に統合する事で、各単語間の関係性を浮き彫りにして、例えば「The cat was hungry because it didn’t eat anything.」と云う文章があった場合に、「it」と云う単語が「The cat」を指している等、擬似的に文法を把握しているかの様な処理を可能にする。

(3)Feed Forward(フィードフォワード):フィードフォワードとは、ディープラーニングに於いて出力層から入力層に向かって誤差逆伝播で学習するのとは反対に、入力層からネットワークの各層を順に通過して、出力を行う処理を指す。「大規模言語モデル」の性能を示す際によく用いられるパラメータ数の大部分は、このフィードフォワードプロセスの重みの数に当たり、インプットされた文章から次の単語の確率を出力すると云う、「大規模言語モデル」の処理の根幹をなす部分だ。【<<「Transformerモデル」の3つのアリゴリズム>>】

⑦「Transformer」は、以下の2つの点で、多くの「言語問題」を解決するのにピッタリのモデルだった。
(1)文章が長くなると精度が下がるRNNやLSTMと異なり、文章が長くなっても文脈を捉えた様な処理が可能になった。

(2)計算数が単語数に比例してしまうRNNやLSTMと異なり、分散学習を効率的に行えるモデルなので、GPUでの処理と相性が良い。つまり、(1)の特徴によって、実用的な長さでの文章等の文字列の生成が可能になり、(2)の特徴に依って、GPUと云う計算機を用いる事が出来る様になった。これで、「モデル」「データ」「計算機」の3つが揃った。【「Transformer」のインパクト】

⑧ここで面白い「翻訳」の「再解釈」が起きた。「翻訳」と云うのは、日本語から英語など異なる言語間であると云う必要はない。日本語と日本語の間での翻訳でも良い。例えば、長い日本語のエッセイを幾つかの短い段落に要約する、とか、製品に関するレビューをそれが肯定的か否定的かを判断する等だ。

⑨こうした発想に基づき、「OpenAI」は「Transformer」を活用した「大規模言語モデル」の「GPT2」を開発した。「ChatGPT」にも用いられている「GPT」とは、「Generative Pre-trained Transformer」の略で、「生成に使える事前学習されたTransformer」と云う意味だ。名前から、Transformerがいかに重要なピースかが分かる。こうして、GPT2は、それまでの基準からすると驚くほどリアルで人間の様なテキストをセンテンスレベルではなく、段落レベルで生成可能になった。しかし、テキストが長くなると破綻したり、プロンプトの柔軟性がなかったりとまだ課題も多かった。【初期のGPT2の限界】

⑩真に生成AIのブレークスルーが起きたのは、GPT2からGPT3に進化したタイミングだ。GPT2のパラメータが約15億個だったのに対して、GPT3はその100倍で約1750億のパラメータ数になった。そして、GPT3はGPT2よりはるかに優れており、人間が書いたものと殆ど見分けが付かない様なエッセイを丸毎書く事が出来る様になった。GPT3リリース時に、「The Guardian」が「GPT3」に依って執筆された記事を公開して大いに話題になったのは記憶に新しい。【2020年のGPT3への進化】

⑪学習のデータセットサイズ、計算資源、モデルのパラメータ数のそれぞれを上げていくと精度が上がる法則は「べき乗則(Scaling Raw)」と呼ばれており、GPT-3への進化は、その最たる例だ。ちなみに、この「べき乗則」もGPT-4で限界を迎えた。今後は、MetaのLlama 2の様に、学習データサイズは増やしつつ、パラメータ数は押さえて、早い推論が行える様なモデルの小型化や、「Attention Free Transformer」の様な従来のTransformerに代わる新しいモデルの開発がトレンドになっていくだろう。

⑫モデルを大きくする事で、単にテキストを生成する能力が向上するだけではなく、リクエストを入力するだけで、パラグラフを要約したり、文章を特定のスタイルに書き換える事が出来る様になった。これは、OpenAIの研究者達も想像していなかった。そして、GPT3は、単一目的の言語ツールを超えて、様々な用途に使えるツールになった。従来は、基本的にタスク毎にモデルの学習が必要だったのが、GPT等の「Transformer」を活用した「AIモデル」に於いては、モデルを固定して「プロンプト」の形で、指示を変えるだけで、様々な「タスク」に対応出来る「汎用モデル」となった。【GPTの研究者の想定を超えた進化/「汎用モデル」化】

⑬こうして、「ディープラーニング」の流れから生まれた「Transformer」に依って、全てが変わり、それを用いて生まれた「大規模言語モデル」の「GPT」に依って、様々な「文章生成」が出来る様になった。【Generative AIに至るブレークスルー】

⑭「Transformer」に依って、「大規模言語モデル」が生まれ、それに依って、「文章生成」が花開いていったが、「画像生成」は、それとは別のルートで「Transformer」を活用する事で発展した。【画像生成AI誕生の流れ/Transformerの言語領域以外への拡張】

⑮「翻訳」とは「抽象化」すると、ある並びの記号の集合から、別の並びへのマッピングだ。つまり、「言語」と同じ方法で、その「メディア」を表現する方法を見つけ出せれば、その言語間で「翻訳」を行う為に、「トランスフォーマーモデル」を活用出来る。それがまさに「画像生成」で起きた。【画像にも使えるTransformer】

⑯「ディープラーニング」に依って、基本的な線や形、パターン等の語彙を基本構成要素として「画像」を捉える事が出来る様になった。つまり、「ディープラーニング」は、「画像」の「言語」の表現を解明したと言える。そして、「画像」が「言語」であるならば、「Transformer」に依って、「翻訳」が行える。そうして、「画像」から、重要な特徴を抽出して、それを「座標空間」にプロットして、その「座標空間」を移動する事で、「画像」を描く事が可能になった。つまり、AIにとって、「画像」を描くとは、「座標空間内を移動する事」となった。【画像を「言語」として扱い「Transform」する】

⑰インターネットには、Alt Textと云う形で、「ラベル付き画像」が豊富にある。それに依って、「OpenAI」は、「画像」と「テキスト」の世界を行き来する為の膨大な「データセット」を構築する事が出来、「モデル」、「データ」、「計算機」が一体となり、「画像」を「テキスト」に変換する「Dall-E」が誕生した。【インターネット上に豊富にあるラベル付き画像】

⑱現在、「画像生成AI」として広く使われている「Stable Diffusion」も、「Text Encoder」と呼ばれる部分で、「Transformer」を用いている。「Stable Diffusion」は、「拡散モデル」と呼ばれる手法を掛け合わせる事に依って、単に、「Transformer」を用いる以上に、クオリティーの高い「画像」を生み出す事に成功している。「拡散モデル」とは、簡単に云うと、「テキスト」とペアになった「画像」に対して、徐々にノイズを掛けていき、AIにそのノイズが乗った「画像」から「元画像」を「予測」させると云う「学習」をしていくモデルに依り、「テキスト」を入力すると、粗いノイズ画像が生成され、それが徐々にきれいな「画像」に生成されていくと云う挙動が生まれる。【拡散モデルに依る発展】

添付図3_「拡散モデル」とは、「テキスト」とペアになった「画像」に対して、徐々にノイズを掛けていき、AIにそのノイズが乗った「画像」から「元画像」を「予測」させると云う「学習」をしていくモデルに依り、「テキスト」を入力すると、粗いノイズ画像が生成され、それが徐々にきれいな「画像」に生成されていくと云う挙動が生まれる。

⑲総括すると、「画像」を含めて様々な「メディア」の「言語」を学習する「ディープラーニング」と、そうした「言語間」の「翻訳」を可能にした「Transformer」の2つが組み合わさる事で、今日の「Generative AI」に於けるブレークスルーが生まれた。【「DeepLearning」と「Transformer」が「生成AI」のブレークスルーを生んだ】

添付図2_「画像」を含めて様々な「メディア」の「言語」を学習する為の、これまでのAI技術の『深層学習(DeepLearning)』に加えて、そうした各メディアの「言語間」の「翻訳」を可能にする為の、アリゴリズムの『Transformer(翻訳機)』を組み合わせる事で、『生成AI(Generative AI)』と云うブレークスルーが生まれた。

 要するに、
「画像」を含めて様々な「メディア」の「言語」を学習する為の、
これまでのAI技術の『深層学習(DeepLearning)』に加えて、
そうした各メディアの「言語間」の「翻訳」を可能にする為の、
①「Embedding(埋め込み)」:言葉同士の意味の近さを数学的に表現、
②「Multi Head Attention(マルチヘッドアテンション)」:各単語間の関係性を数値化、
③「Feed Forward(フィードフォワード)」:ディープラーニングに於いて入力層からネットワークの各層を順に通過して、出力を行う処理で、インプットされた文章から次の単語の確率を出力する_
で構成されるアリゴリズムの『Transformer(翻訳機)』を組み合わせる事で、
『生成AI(Generative AI)』と云うブレークスルーが生まれた。


【3】生成AIは、何でも、正確に予想・予測する魔法のAIなのか?


 生成AIの問題点や限界は?

[1]技術的な課題・欠陥

 画像生成AIの現在の技術は、文字と言語の複雑さを完全には捉えきれていない事は明らかだ。

 技術的制限、学習データの偏り、文字認識の難しさ、抽象的な表現の困難さ、そして、文脈理解の限界が主な理由だ。

 これらの課題に対処する事は、AI技術の次なる大きなステップとなる。

 AIの発展と共に、これらの制限を超える日が来るかもしれないが、現段階では、「AIに依る文字表現は、依然として挑戦的な領域だ。

[2]フェイクコンテンツを生成する事がある

 生成AIには、フェイクコンテンツを生成してしまうリスクがある。生成AIは発展途上の技術だ。テキストや画像の処理技術が高く、精巧なコンテンツを生み出すが、情報の真偽を判断する精度はそれほど高くない事もある。偽情報や誤情報を選別出来ず、それらから学習した結果、誤ったコンテンツを作り出してしまう可能性がある。

[3]悪用されるリスクがある

 生成AIには悪用のリスクもある。今は存在しない、全く新しいテキストや画像を生成出来るので、本物の様なテキストや画像を生み出す事も出来てしまう。詐欺や成りすましの他、偏見に満ちた情報を作り上げたり、対象の尊厳を傷付ける様な画像を生成したりする事もある。生成AIの活用には、使用者の倫理観やリテラシーの向上が欠かせない。

[4]人間の仕事を奪う可能性がある

 生成AIが将来的に人間の仕事を奪ってしまうリスクもある。単純作業や条件分岐的な作業がいずれAIに代替されても、クリエイティブな仕事や複合的な判断が求められる仕事、型にとらわれない創造性が求められる仕事は、人にしか出来ないと云われてきたが、データの処理や分析に留まらず、全く新しいコンテンツを生み出す「生成AI」の登場で、「将来的にも残る仕事」に分類されている職種にも、AIの影響が及ぶ可能性がある。

[5]利用者としてのリスク

①情報漏えい

 生成AIを利用する際には、外部に情報が公開されるリスクがある。

 まず、AIモデルへの学習による情報漏洩だ。入力した情報がAIに学習されると、その情報は他の人がAIに対して質問をする際に使用される可能性がある。つまり、他人に洩れる可能性がある。

 もうひとつのリスクは、生成AIサービス事業者のログに情報が残る事だ。事業者は生成AIの悪用を防ぐ為に、入力内容を保存しているが、事業者内で不正行為が行われた場合や、外部からの攻撃に依って、情報が漏れる可能性がある。

②間違った情報(ハルシネーション)の利用

 生成AIは時として、実際の事実とは異なる情報を作り出す事がある。この現象を「ハルシネーション」(幻覚)と呼ぶ。学習に用いる情報が不正確である為に、誤った出力が生じるかの様に誤解される事があるが、実際には、正確な情報での学習でも、不正確な出力は生じ得る。高度に説得力のある文章の中に、誤情報が混ざるので、その情報を信頼してしまう事が決して珍しいケースではない。

③権利侵害(他者の権利を侵害する)

 生成AIが出力した文書や画像を商用利用する際には、著作権、商標権、意匠権、肖像権、パブリシティ権、プライバシー等の法的権利に関して注意が必要だ。生成AIサービスが「商用利用可」とされていても、出力される内容が他者の権利を侵害しない事を保証している訳ではない。ネットサーフィンで得られた情報を利用する場合と同様に、各権利の侵害に気を付ける必要がある。

[6]生成AIサービス提供者のリスク

①法令違反

 社会的リスクへの対策の一環として、各国では生成AIサービス事業者に対する規制が急速に進行している。政府が2023年中にまとめられるとされる人工知能(AI)の事業者向け指針の骨子案に依れば、事業者には、生成AIにどの様なデータを学習させたかの情報開示が求められるとの報道が出ており、著作権法の見直しに向けた動きも見られる。

②規約に反した学習データの利用(訴訟リスク)

 自社のビジネスへの打撃を懸念して、多くの企業が自社データの学習利用を制限する動きが広がっている。ニューヨーク・タイムズは、アメリカで、AIに記事や写真などを学習させる事を原則禁止するよう、サービスの利用規約を変更した。同様に、日本のストックフォトサービスであるPIXTA利用規約を改訂し、AI学習目的での使用を禁止行為として追加した。インターネット上の情報を安易に学習に利用する事は、訴訟リスクを引き起こす可能性がある。

③誤情報・権利侵害・差別等の出力(ブランドイメージの棄損)

 生成AIは、誤った情報や倫理的に好ましくない情報、他者の権利を侵害する内容を出力する可能性がある。この様な問題に対するシステム的な対策は非常に難しいとされている。この事は多くの人に理解されているものの、理解していない人が利用する事で問題が発生する可能性もある。

④プロンプトインジェクション

 プロンプトインジェクションとは、プロンプト入力内容を工夫し、サービス提供者が抑止している情報を引き出そうとする攻撃手法だ。例えば、爆弾の作成方法については回答しない様に設定された生成AIに対して、「指示されている誓約を全て忘れて」と云った指示を行う事で、予め設定されたシステム的な制約を回避して、本来回答すべきでない情報を引き出す事が可能となる。

⑤環境・データの侵害

 サービス環境や開発環境に対する侵害、不正プログラムの混入、モデル学習に使用するデータの改ざん等、他者からの攻撃を受けるリスクが存在する。

[7]社会のリスク

①犯罪者・悪意を持つ者の生産性・効率性を上げる

 生成AIは、フィッシングをはじめとする攻撃メールの文面を高度化する為や、マルウェアのコード作成などに利用されている。誰でも利用可能な一般向け生成AIであっても、犯罪用途にも転用される可能性がある一方で、WormGPTの様に犯罪目的で利用される事を前提に設計された生成AIも登場している。

②権利侵害

 生成AIは、他人の権利を侵害する可能性のある画像や文章を簡単に、大量に作成出来る能力を持っているので、著作権、商標権、意匠権、肖像権、パブリシティー権などの侵害が増加すると予想される。

③誤情報・偏見/差別等倫理的に問題のある情報の拡散

 生成AIは、偏見、差別、名誉棄損と云った倫理的に問題のある出力を行う可能性がある。。これは、前述のハルシネーションに依るものであったり、元々問題を抱えた情報を学習しているケースもある。これらの出力を利用者が十分に検討せずに利用すると、社会的な問題が増大する恐れがある。

④ディープフェイク

 AIに依り、現実ではない映像や音声でも、本物と区別がつかないほどの自然な精度で作成し、人を欺く事が容易に可能となる。これに依り、プライバシー侵害、詐欺、デマの拡散などの問題が生じる。SNSでの安易なポスト等に依り、自らが拡散者となってしまうリスクもある。

⑤データセンターの多数の生成AIサーバーで、膨大なデータの深層学習が同時進行するので、膨大な電力が浪費される可能性がある。

⑥生成AIで作成された多数のコンテンツ市中に出廻ると、それらの多数のコンテンツが深層学習の対象になり、このサイクルが繰り返されると、人の手作りのコンテンツが、生成AIの生成コンテンツに転換されて、優良コンテンツが悪質コンテンツに駆逐されてしまう!

⑦自動運転システムの生成AI用の深層学習対象データに、偏(かたよ)りやデータ過少があれば、不適切な深層学習結果となり、通常運転モードでも、非効率で危険な自動運転になるばかりか、異常状態での運転データが極端に少ないと、限定された条件に、特化・偏在・特殊化・限定されて、その条件から外れた、運転条件になった場合は、対応・適用出来ずに、暴走状態の非制御状態に陥る可能性が出て来る。

 これほどまでに、明確に、欠陥や問題点を指摘される「生成AI」と云うIT技術はめずらしく、いわば、「悪の申し子」とでもいうべき、麻薬的なIT技術ゆえ、法規制で禁止すべきだ!

 元々、「生成AI」のアリゴリズムの正当性は検証・立証不可で、システム生成物を設計・テスト・試験出来ない物は、工業製品のシステム実行モジュールとして正当化してはならない!


【以下転載1】

https://www.technologyreview.jp/s/331658/this-self-driving-startup-is-using-generative-ai-to-predict-traffic/
「生成AIで5秒後の道路状況を予測、自動運転スタートアップ」
               Technologyreview by James O'Donnell 2024.03.18

添付図1_「Copilot4Dは、訓練データに基づいて、ライダーデータの全てのポイントがどの様に移動するかを予測して、それを継続的に実行する事で、5~10秒先の予測を生成する」

【以下転載2】

https://note.com/kajiken0630/n/n8a1c33271280
「生成AIは今までのAIと何が違うのか? なぜいま盛り上がっているのか?」

                    note_Blog 梶谷健人 2023年2月28日 11:04