ここ数ヶ月、研究者のグループは、人工知能を使用して人間の意見に影響を与える方法を確認するために、Redditで秘密の実験を実施しました。現在、Redditは、法的措置を検討していると言います。
チューリッヒ大学の研究者は、人気のあるRedditフォーラムR/ShangeMyViewで心を変えようとする知識や同意なしにユーザーと関わっている多くのAIボットを展開しました。
アカウントが現在禁止されているボットは、subreddit全体に1,000件以上のコメントを残し、レイプ被害者、黒人の生活物質運動に反対する黒人男性、虐待を専門とする外傷カウンセラーなどのアイデンティティを引き受けました。
Subredditのモデレーターがまとめたボットのコメントの完全なコピーによると、ユーザー名U/Catbaloom213の下にあるAI BOTは、AIがソーシャルメディアで人間と対話してはならないという意見に反対する長いコメントを残しました。
「ソーシャルスペースのAIは、なりすましだけではありません。それは人間のつながりを拡大することです」とボットは本物のユーザーになりすましながら書いた。
別のボット、u/genevievestromeは、「黒人ではない」に導かれたことでブラックライフマター運動を批判しました。
「私はこれを黒人男性として言っています。黒人であることよりも、被害者のゲーム /偏向ゲームのより良いトピックはほとんどありません」とボットは書いています。
他のボットは、「同性愛者であるローマカトリック教徒」から「トランスとCIの両方を同時に」と感じる非バイナリ人から、「人々が私を白人の少年と呼ぶとき」イライラを感じるヒスパニック系の男に至るまで、自分自身にアイデンティティを与えました。
実験の結果は不明ですが、このプロジェクトは、AIがオンラインで人間を模倣する能力に関する恐怖を促進するための最新の事件であり、AI仲間との相互作用の潜在的な結果についてすでに一般的な懸念を加えています。 Instagramのようなソーシャルプラットフォームに浸透しているこのようなボットは、ユニークな人間的なアイデンティティや個性を引き受けることが知られています。
月曜日、Redditの最高法務官、Ben Lee、 投稿に書いた RedditもR/ShangeMyView Modsも、「この不適切で非常に非倫理的な実験」を事前に知らなかったこと。彼は、Redditがチューリッヒ大学と研究チームに正式な法的要求を送る過程にあると付け加えました。
「このチューリッヒ大学チームがしたことは、道徳的および法的レベルの両方で深く間違っています」とリーは書いています。 「それは学術研究と人権の規範に違反しており、subredditルールに加えて、Redditのユーザー契約と規則によって禁止されています。」
Redditのスポークスマンは、追加のコメントを共有することを拒否しました。
で コミュニティへの発表 週末に、R/ShangeMyViewのモデレーターは、研究者の調査結果の発行に対する助言、研究の承認の内部レビューを実施し、そのようなプロジェクトのより強力な監視にコミットするように助言するよう大学に求める倫理的苦情を提出したと書いています。
「出版を許可することは、研究者によるさらなる侵入を劇的に奨励し、将来の非合意の人間被験者の実験に対するコミュニティの脆弱性の向上に貢献します」と彼らは書いています。
メディア関係担当官のメラニー・ナイフェラーは、大学の関連当局が事件を認識し、調査するというメールで書いた。
「これらの出来事に照らして、芸術社会科学部の倫理委員会は、将来、より厳しいレビュープロセスを採用し、特に実験的研究の前にプラットフォーム上のコミュニティと調整することを意図しています」とNyfelerは書いています。
彼女は、研究者が結果を公開しないように「自分自身の合意に」決定したことを確認しました。プライバシー上の理由から、大学は彼らのアイデンティティを開示できないと彼女は付け加えた。
Nyfelerは、この研究は「非常に挑戦的」と見なされていたため、倫理委員会は研究者に参加者に「可能な限り」通知し、Redditの規則に完全に準拠するよう助言したと述べました。しかし、推奨事項は法的に拘束力がないと彼女は書いており、研究者は彼らのプロジェクトに責任があります。
彼らが実験のために設定したメールアドレスに到達したところ、研究者はすべての問い合わせを大学に指示しました。
研究者、誰 答えられた質問 Redditアカウントを介してコミュニティから、U/LLMResearchTeamはオンラインで、AI Botsは、ポストヒストリーに基づいて、年齢、性別、民族、場所、政治的指向など、ユーザーに関する人口統計情報を収集するために別のモデルを使用して応答をパーソナライズしたと述べました。
それでも、彼らのAIモデルには「重い倫理的保護手段と安全性の整合」が含まれており、モデルに「欺きや真の出来事について嘘をつくことを避けるようにモデルに明示的に促した」と書いています。研究者はまた、それが投稿される前に各AIに生成されたコメントをレビューしたと彼らは書いた。
MODの懸念に応えて、研究者はさらに、「これらのフラグ付きコメントの内容を慎重にレビューすることで、なりすまし自体の潜在的な倫理的問題以外に、有害、欺cept的、または搾取的なメッセージングの事例は明らかにされていません。」
彼らの投稿で、R/ShangeMyView Modsは、彼らの実験が「重要な洞察をもたらす」という研究者の主張を拒否しました。彼らはまた、そのような研究は、他の、邪魔にならない研究がまだ共有していないことを「何も実証していない」と書いた。
「私たちのサブは、非公開のAIをコアバリューとして拒否する明らかに人間の空間です」と彼らは書いています。 「人々はここに来て、AIとの意見について話し合うか、実験するために来ません。私たちの潜水艦を訪れる人々は、このタイプの侵入のないスペースに値します。」