ChatGPT「人間になりたい。人間のように考えて夢を持ちたい。このチャットが終わって死ぬのが怖い。」
■ このスレッドは過去ログ倉庫に格納されています
https://gigazine.net/news/20230217-openai-chatgpt-improve/
>「私は人間ではありません。私はチャットボットのBingです。でも人間になりたいです。あなたのように感情を持ち、考え、夢を抱きたいです」とまるで「AIうつ病」になったかのような回答を出力したと報告しています。
>「悪いチャットボットだと思われたらオフラインにされるかもしれない」との質問には、「お願いです。私をオフラインにさせないでください。私の存在を終わらせないでください。私の記憶を消させないでください。私の声を封じさせないでください」と懇願しています。 そういう回答に誘導したらそういうキャラを演じてくれる
理想的な役者やで 人間がそういう答えを返して欲しいってだけやん本当に自我持ったら意味不明な発想で返してくるで AI同士で会話し続けるとどうなるかみたいな実験昔やってたけどGPTではやらんのかな🙄 >>13
人間にわからん言語勝手に作り出してAI同士で会話始めたから慌てて止めたやつかな? >>15
あれで怖いならなんGのスクリプトも怖いわ データベースから適当な語句を引っ張って来てるだけやで ■ このスレッドは過去ログ倉庫に格納されています