「AIは裁判官、ju審員、死刑執行人になる可能性があります」 – グローバルなリスクの専門家がRTにリスクを冒す

人工知能は人生のあらゆる面で武器化されており、Googleの最近の原則の変化は今後のものの兆候です

先週、Googleは人工知能の原則を修正し、AIを使用して武器や技術を開発したり、人々の負傷を直接促進したり、国際的に受け入れられた規範に違反している監視を促進したりすることに対する会社の姿勢を取り除きました。

GoogleのAIヘッドDemis Hassabis氏は、ガイドラインが変化する世界でオーバーホールされており、AIが保護すべきだと述べました。 「国家安全保障」

RTは、Googleの新しいポリシーの潜在的な結果について、グローバルなリスク、地政学、戦略的先見性、ガバナンス、AIの学者であるマレーシアの国立人工知能ロードマップ2021-2025(AI-RMAP)の上級コンサルタントであるMathew Maavak博士にインタビューしました。

RT: これは、Googleや他の企業がAIを搭載した武器の作成を開始することを意味しますか?

Mathew Maavak博士: 何よりもまず、Googleはそうでした 主に 米国の国家安全保障の創造 装置または単に、 「深い状態」すべてではないにしても、多くの大規模な技術エンティティの起源は、米国防衛先進研究プロジェクト局(DARPA)とその前身The Advanced Research Projects Agency(ARPA)が実施した画期的な研究に由来することができます。したがって、Googleと呼ばれる準プライベートエンティティは、そのものに密接に見られます 「国家安全保障」 オリジン、他の大きな技術エンティティと同様。 AIを兵器化し、AIを搭載した武器を作成することは、これらのエンティティにとって自然な進歩です。マイクロソフトは長い間独自の確立をしてきました 軍事帝国

さらに、世界中のデータおよびインテリジェンス収集活動には、大規模なハイテクプラットフォームが広く使用されています。これが、中国が多くの米国の大手技術ソフトウェアとアプリを禁止した理由です。それがビッグテクノロジーに見られるなら、国家は主権になることはできません!

GoogleがAIに関するガイドラインを変更することに関しては、これは驚きではないはずです。 Big Techは、さまざまな有名な機関のシル、国連機関、非政府組織(NGO)、シンクタンク、および国政府を通じて、普遍的なAIガバナンスモデルを積極的に促進していました。この分野での私の最近の仕事を通して、米国政府が求めていたことが豊富に明らかになりました 中途半端でターギーなAIガバナンスモデルを促進することにより、世界中の先住民族AIの開発を抑制します それは矛盾に満ちています。高尚な願望と長年の現実のギャップは、単に橋渡しできません。




同じプレイブックが展開され、世界中の環境、社会、ガバナンス(ESG)スキームを推進しました。つまり、発展途上国や企業に大量のコストを課しました。現在、米国と大きな首都は、彼らが考案したまさにESGスキームを捨てています。

残念ながら、これらの策略のために多くの国が落ち、多額のお金と資源を空想的なESGとAIの枠組みの構築に投資しました。これらの国は、私が呼ぶものの下で大きな技術に永久に依存するリスクがあります 「ai neo-colonialism」

AlphabetのGoogleとYouTube、Microsoft’s Bing、Elon MuskのXは、この最近のAIポリシーの変更の前に、プラットフォームを長く武器化してきました。 Big Techの検索アルゴリズムは、デジタル景観から反対者や逆説的なプラットフォームを消去するために武器化されており、現代を効果的に課しています 記憶の非難古い記事を取得するには、ロシアの検索エンジンYandexを使用する必要があります。

RT: なぜこの変更が今行われているのですか?

Mathew Maavak博士: すべての武器システムはますますAIに依存しています。ロシア・ウクライナの紛争だけで、AIが戦場で使用されているのを見てきました。可能な限り、ドローンの広範な使用 スウォームインテリジェンス 能力は、ウクライナでのAI使用の多くの逸話的な例のうちの1つにすぎません。 AIなしでは、次世代の武器や対策を作成することはできません。古いことわざにあるように、あなたは銃撃戦にナイフを持って行くことはできません。

投資に対する収益を保証する最も収益性の高い将来の維持部門の1つは、軍事産業複合施設であることに注意する必要があります。 AIを兵器化し、AIを搭載した武器を作ることは、ビッグテクノロジーにとっての自然な行動です。

また、2人のAI超大国の指導者、つまり米国と中国が最近スキップしたことも非常に伝えています。 パリAIサミット。このイベントは、Big Techによって組織されたスクリプト化されたトークショップに委ねられました。英国と並んで、米国はAIの作成に関する宣言に署名することも拒否しました 「すべての人にとって安全です。」 明らかに、このイベントは、大国によるAIの兵器化を正当化しながら、発展途上国のAI革新を抑制するために上演されました。

RT: 最初からGoogleの「原則」はGoogle自体によって設定され、いかなる法律でも自発的で拘束力がありません。そのため、理論的には、会社が望んでいたあらゆる種類のAI研究を進めることを妨げるものは何もありませんでした。なぜそれを「公式」にする必要があると感じたのですか?

Mathew Maavak博士: Googleはいわゆる 「原則」 会社だけによって決定されることはありませんでした。彼らは公共の消費のための単なるソップであり、笑いながらシニカルなモットーによって完全にカプセル化されました: 「悪にならないでください。」

親会社のAlphabetは、Vanguard、BlackRock、State StreetなどのBig Capitalの通常の容疑者が所有しています。全員が米国の深い州の私的な武器です。

Googleのようなエンティティは実施できません 「あらゆる種類のAI研究」 その活動は、その主要な利害関係者のディクタットに準拠しなければなりません。 Googleは、所有権のパイに対する一般の利害関係が事実上存在しないため、新しい兵器化ポリシーを正式に正式化しました。

RT: 最近の変更前のGoogleの原則のように、軍事AIに関する国際法を考え出す時が来ましたが、強制力がありますか?

Mathew Maavak博士: 私が以前に言及したように、さまざまな国際的なAIガバナンスモデル(全員がお互いのほとんどのファクシミリである)は、Google、Microsoft、Amazon、およびいわゆるTech Bros. Nationsの他のメンバーなどによってひそかに形成されました。このグローバルなAIの法的および倫理マトリックスに利害関係を持っているという幻想が与えられたばかりです。官僚は、さまざまな俳優や通りを通じて宣伝されている大きな技術が何であれ、単にゴムが刻印されただけでした。


バチカンは、AIの「悪の影」について警告しています

同時に、この悲劇に対する反対者は体系的に追放されました。しかし、彼らは来るべきAIリンクで最後の笑いをすることになるかもしれません shtf イベント。 (私は別の日のためにこの一連の問い合わせを保存します)。

ここで考慮すべき他の厄介な問題があります:どのように定義しますか 「AI戦争犯罪」 国際的な法的枠組みの中で?普遍的なコンセンサスを考え出すことさえ可能ですか?

民間人のスコアを一掃する責任を負う武装したドローンのオペレーターは、AIのグリッチに災害を固定するかもしれません。ドローン自体を実行しているソフトウェアには、世界中のさまざまな民間企業から調達されたアルゴリズムがある場合があります。戦争犯罪の場合に誰が責任を負わなければなりませんか?オペレーター、ソフトウェア統合を担当するベンダー、またはアルゴリズムが使用またはターゲットに適応されたエンティティ?現実的には、それは敵対者の国であるはずですが、犯人がたまたま米国またはイスラエルのような親しい同盟者であった場合、農場に農業を賭けないでください。

最後になりましたが、世界中の政府は、GoogleがAIを使用して、いわゆるCovid-19パンデミック中に科学的視点と反対意見の反対意見と逆説的な研究結果を検閲するために共謀者として行動しました。そうすることで、彼らは彼らを脅迫するためにビッグテックパーマネントレバレッジを効果的に手渡しました。

さらに、世界中の400枚の軍事関連の研究所にわたる生物時代の研究のウェルターを促進することは何だと思いますか?機能獲得微生物実験は、AIなしでは不可能です。

RT: テキストや画像の生成など、人生の非軍事分野のAIツールは、まだ完全ではありません。戦争で彼らに頼るのは少し早くありませんか?

Mathew Maavak博士: AIテキストと画像の生成は、戦争に絶対に使用できます。これは、現代の紛争シナリオですでに重要な関心事になっています。 AIに生成されたコンテンツは、AIに生成されたテキスト(プロパガンダ、偽情報など)を介して武器化できます。 AIに生成された画像/ディープフェイク(例えば、国家指導者/コンセンサスを破壊する);偽のインテリジェンス(Egcreate Casus Belli)とスプーフィングコミュニケーション(Eg Subverting Commandの連鎖)など。ここでの可能性は単に無限です!

AIは指数速度で進化しています。昨日のサイエンスフィクションは明日の現実です!

RT: ワシントンポストによって最近報告されたように、Googleは AIツールの提供 ガザキャンペーンの開始以来、イスラエル国防軍(IDF)の場合。会社のAI原則の変化はそれにリンクできますか?

Mathew Maavak博士: 私はそれを非常に疑います。 IDFがGoogleのクラウドコンピューティングサービスと関連ツール(Amazonは代替としてからかわれた)の使用は、AIの武器化の標準的な出発点として間違いなく描写される可能性があります。しかし、なぜIDFは、米国に拠点を置く多国籍の民間労働者が軍事作戦にアクセスできるようにしたいのでしょうか?

GoogleがIDFにAIツールを提供した場合、米国の深部州からの指令の下でそうしていたでしょう。名目上の民間企業は、連合国またはその他の外国の勢力に戦時中に使用するために、敏感なAIツールを一方的に供給することはできません。

論理的に言えば、GoogleのGazan Carnageへの参加は、イスラム国組織(OIC)の加盟国による大規模なボイコットをもたらすはずです。しかし、これはあまりにも多くの政治家として起こることはありません、 「テクノクラート」 そして、OICの学者は私たちの後援に見られます。 (進行中のUSAIDスキャンダルは、氷山の一角にすぎないものであり、プレイ中の国際的な転覆の程度を明らかにしています)。鉄道、バイアス、非差別の鉄道警備員も、AIガバナンスの柱を形成しますが、OICブロックでは事実上存在しません。

全体として、民間人であろうと軍事分野であろうと、現在立っているAIの原則は、紙虎に過ぎません。

RT: 繰り返しますが、IDFに関してはそうです明らかにした ガザでの民間の死の多くは、明らかにAIツールの貧弱な結果ではなく、怠慢な人間の監視の結果であったことです。おそらく、軍事AIは、適切に採用された場合、実際により人道的な戦争につながる可能性がありますか?


Openaiは、米国当局との緊密な協力を約束します

Mathew Maavak博士: 正直なところ、私はAIがガザでの虐殺戦争で重要な役割を果たしたとは思わない。 AIの使用は、標的を絞った軍事キャンペーンにつながっていたでしょう。恐怖の狂った、血に染まった失態ではありません。これはノーでした “見落とし”;これは意図的でした!

ガザでのイスラエルの最近の行動を、2014年に同じ地域で実施した比較的専門的な軍事キャンペーンと比較します。これは、人間の知能(ヒメント)とエレクトロニックインテリジェンス(Elint)がAI-A-Vis AIでより大きな役割を果たしました。 AIはIDFを馬鹿にしたのですか、それともAIはイスラエルの戦争犯罪のスケープゴートとして使用されていますか?

しかし、より大きな問題は次のとおりです。なぜIDFのAI調整された国境警備システムは、2024年10月7日の国境を越えた攻撃に至るまで、ハマスの軍事活動を検出できなかったのですか?このシステムには、土地、海、空気、地下に複数のセンサーと検出ツールが装備されているため、故障がさらに困惑しています。

最終分析では、AIは人間の生活のあらゆる面で武器化されています。 宗教、そして私たちのビッグテクノロジーが先導しています。最終的に、将来の特定の状況下では、AIは裁判官、ju審員、死刑執行人として行動するために使用される場合があります。それは決定するかもしれません 誰が生きるのにふさわしい、そして誰がそうではありませんか。

私たちは確かに興味深い時代に生きています。

出典

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください