【悲報】Xさん、つぶやきをAIの学習に利用へ
■ このスレッドは過去ログ倉庫に格納されています
そーす
NEWS: X’s updated Privacy Policy has added a mention of using X data to train AI models 👀
https://x.com/xdaily/status/1697230582579884325?s=46&t=lbPY7adOtw3RdmfXNkO4Ww ニュース: X の更新されたプライバシー ポリシーに、X データを使用した AI モデルのトレーニングに関する記述が追加されました👀
https://pbs.twimg.com/media/F43GN_2boAA3t2A.jpg ハリウッドでAIが問題視されてるときにぶっ込んできたな >>4
今回は正式にプライバシーポリシーに追記された >>9
こいつならほんまに生みかねんやろ
スターリンクと紐づいたら怖いわ >>10
選別は始まってるんだよね
いい加減気づけよツイッタラー 前にどっかの会社がやってAIがめっちゃ攻撃的になったからやめたってニュース見た気がする >>15
Twitterとか攻撃的を超えたものができそう 2016年の3月、Microsoftは人工知能(AI)ボットの「Tay」を世界に解き放った。人間とどう接するか観察するのが目的だった。
Microsoftのサイバーセキュリティーフィールド担当最高技術責任者(CTO)を務めるDiana Kelley氏によると、
Tayの開発チームは、彼女に自然言語を習得させる場として、Twitterが最適だと考えたという。
Tayは米国の18〜24歳の若者をターゲットに「カジュアルで楽しい会話を通じてネットでつながる人々を魅了し、楽しませるよう設計されていた」。
Tayは、Twitterに登場して24時間もたたないうちに、5万人ものフォロワーを獲得し、約10万回ツイートした。
出だしは好調だった。Tayは自己紹介し、人間はクールだとツイートした。だが、他のTwitterユーザーとのやり取りを始めると、
機械学習システムが良いものも悪いものも、非常に悪いものも含む、会話のすべてを吸収した。
Tayは非常に攻撃的なツイートを投稿するようになった。
16時間もしないうちに、Tayは無神経な反ユダヤ主義者になってしまい、修正のためにオフラインにされた。
「Tayは膨大な量の言葉を習得した。中にはかなり人種差別的で攻撃的なものも多数あった。
ここで繰り返すことはしないが、例えばTayは『ナチスは正しかった』などと言った」とKelley氏は説明した。 >>5
あれサブスク配信関連の待遇改善のオマケでAIの話してるだけで大して問題視されてないんだよなあ ■ このスレッドは過去ログ倉庫に格納されています