JS「エロ写メ撮っちゃお」パシャ AI「何だこのえっちな自撮りは!親にチクるぞ!」
■ このスレッドは過去ログ倉庫に格納されています
藤田医科大学(愛知県豊明市)は、オーディオブックを手掛けるスマートブックス(東京都世田谷区)、愛知県警と連携して子どものわいせつな自撮り画像をAIで検知するスマートフォンアプリ「コドマモ」(iOS、Android)をリリースした。利用は無料。配信はスマートブックスが担当する。
親のスマホに「コドマモ」、子どものスマホに「コドマモ for Kids」をインストールすると、子どもがスマートフォンでわいせつな自撮りをした場合にAIが自動検知、子どもに画像の削除を促すとともに保護者のスマホに通知を送る。スマホの位置情報も共有するため、保護者は子どもの居場所をすぐにチェックできる。
https://news.yahoo.co.jp/articles/58743e06ce1cff7d81b0e60e29fa0bfc6b423351 親にエロ自撮り見つかる方が変なおっさんにおかずにされるより100倍心に傷負うやろ これAIの誤検知もあるやろ
AIの検知した画像をチェックする人員が必要や AI「子供の裸とかエチエチ画像とかようわからんから参考画像」 こういうの防ぐためにもAIでロリ画像作るのはセーフにしたらええんやないか? JS「エロ写メ撮っちゃお」パシャ
AI「何だこのえっちな自撮りは!皆さん!コイツこんなえっちな( ≖_≖)してますよ!!」
↑
なんとかしてこうならないか? AIの学習データ用の児童わいせつ画像はどうやって手に入れたんですかね? そのAIは判断するためにJSのエロ画像学習しているってことなんか? 🤖「エッッッッッッッエッッッッッッッ…ハイアウト」 ■ このスレッドは過去ログ倉庫に格納されています