ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
Hasshina
Hasshina
14.4
C
Tokyo
Saturday, April 4, 2026
Facebook
Instagram
Twitter
Youtube
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
ホーム
タグ
Watch
Tag:
watch
仕事
Internet Watch Foundationは、AIで生成されたCSAMがわずか1年で260倍に増加したことを確認しました。これは「氷山の一角」です。幸運
その数は膨大ですが、専門家は私たちが見ているのは始まりに過ぎないと言います。 AIによって生成された子供の性的虐待データが記録的なレベルに急増するにつれて、研究者はこの技術がより有害なコンテンツを生成するだけでなく、子供をターゲットにする方法、生存者を再び被害者にする方法、調査官が圧倒される方法を根本的に変化させていると警告します。 捜査官はすでにインターネットから子供の性的虐待資料(CSAM)を削除することに忙しかった。しかし、生成AIを使用すると、これらの問題はさらに悪化します。オンライン児童の性的虐待画像の根絶のためのヨーロッパ最大のホットラインであるインターネット監視財団(Internet Watch Foundation、IWF)は、2025年にAIが作成した児童の性的虐待ビデオが260倍増加したと記録しました。これは前年度の3,443件から13件に過ぎなかった数値です。長年この問題を追跡してきた研究者たちは、今回の爆発が驚くべきことではないと言います。しかし、これは警告です。 オンライン児童性搾取に対抗するための技術を構築する非営利団体であるThornの研究および戦略的洞察力担当副社長であるMelissa Stroebelは、「私たちが見る数字は氷山の一角です」と述べました。 「それは検出された、または事前に報告された内容に関するものです。」 この急増は、生成されたAIがより速く、より安価になり、悪意のある行為者にアクセスしやすくなる直接的な結果です。 Thornは、これらのツールが子供を対象に無機化する3つの異なる方法を特定しました。 1つ目は歴史的虐待の生存者の再害です。 2010年に虐待され、その写真が10年以上オンラインで流布された子供たちは、まったく新しい被害に直面しています。犯罪者はAIを使用して既存の画像をインポートしてパーソナライズしています。つまり、記録された虐待シーンに自分自身を挿入して新しい素材を作成します。 StroebelはFortuneとのインタビューで、「クリスマスの写真を見逃したおばあちゃんがクリスマスの写真をPhotoshopにすることができるのと同じように、悪い俳優たちは、身元が確認された子供のシーンと記録をPhotoshopにすることができます」と述べました。この過程は、虐待を克服するために何年も過ごした可能性がある生存者に新しいダメージを引き起こします。 二つ目は、無邪気なイメージの無機化です。学校サッカーチームのウェブページの子供たちの写真は今、虐待の潜在的な情報源になりました。広く使用されているAIツールを使用すると、犯罪者は完全にポジティブな画像を数分で性的虐待資料に変換できます。 Thornはまた、青少年が自分がもたらすダメージの深刻さを完全に把握していないまま、同級生の侮辱的なイメージを生成するP2Pケースも記録しています。 3番目で最も体系的な影響は、すでに圧倒された報告パイプラインにかかる負担です。 National Center for Missing and Exploited Childrenは、毎年数千万件のCSAM報告を受け付けています。 AIが新しい素材を作成できる速度は、新しい緊急性を負担し、生成する劇的な結果をもたらします。新しい画像が到着すると、調査官はその画像が現在危険な子供を描いているのか、AIが生成した画像であるのかを確認する必要があります。 Stroebelは、「これらのケースは、分類と対応に役立つ非常に重要な情報です」と述べました。 AI生成コンテンツはそのような決定をはるかに困難にしますが、リアルタイムで撮影された画像とAI生成画像の両方が当局に報告され、同じ方法で処理されると付け加えました。 さらに、この技術は、最も頻繁に繰り返される子供の安全ガイドラインのいくつかを危険にさらすのに古くなっています。長年にわたり、子供たちは搾取に対する基本的な保護措置で画像をオンラインで共有しないように警告してきました。そのアドバイスはもはや有効ではありません。 Thornの自己研究によると、17人の青少年のうちの1人が個人的にディープフェイクの画像乱用を経験し、8人のうち1人は標的になった人を知っていることがわかりました。性搾取被害者は、現在自分が撮影したことのないイメージ、つまり自分と同じイメージを送信されています。 Stroebelは、「子供たちが搾取対象になるために画像を共有する必要はありません」と述べました。 検出の観点から知られている乱用ファイルのデジタルフィンガープリントのように機能する従来のハッシュ技術は、合成で生成された各画像が技術的に新しくなっているため、AI生成コンテンツを識別できません。たとえば、自由の女神像のように、非常によく知られているものの写真を撮ります。像の写真にはデジタル指紋があります。ここでズームインして、もう少しズームインし、もう一度ズームインして、1ピクセルのシェーディングを0.1%変更するとします。その変化は人間の目には検出されない可能性が高い。しかし、その写真の指紋は今まったく新しいものです。つまり、ハッシュ技術は、その写真を1ピクセルの差しかない同じ写真として認識できないという意味です。 以前は、従来のハッシュ技術でCSAMとして知られている写真と1ピクセルの差が発生しても、その写真は技術によって検出されませんでした。しかし、画像を既知のファイルと一致させるのではなく、画像に含まれるコンテンツを評価する分類器技術は、完全に抜け出す可能性のあるコンテンツをキャプチャするために不可欠です。 両親にとって、Stroebelのメッセージは緊急で明確です。会話は待つことができず、古い警告よりも進むべきです。子供がこれから出ると、最初の反応が懐疑的であってはならない。 「私たちの使命は、あなたが安全であること、そしてあなたが次のレベルに進むのを助ける方法です」。
必読
仕事
アルテミス2世のダルナラ宇宙飛行士が自宅から110,000マイル以上を旅行しながら、地球の輝く青い美しさを捉えます。幸運
ファイナンス
OpenAIは、技術全体のエコシステムに影響を与える決定を下しました。
暗号
RippleとXRPがSWIFTに接続される唯一の接続は次のとおりです。
仕事
旅行専門家Rick Stevesは、より多くの税金を支払うことを嬉しく思います。幸運