Porn deepfakes: How to talk to your kids about explicit fake images

その日がまだ到来していないのであれば、その日はやって来ます。あからさまなディープフェイクについて子供と話し合う必要があります。

人工知能によって生成されたテイラー・スウィフトの偽ポルノ画像が登場するまで、この問題は抽象的に見えたかもしれない。ソーシャルメディアプラットフォームX/Twitterで急速に広まった。今やこの問題は無視できない、とオンラインの子供の安全専門家は言う。

コモン・センス・メディアのエグゼクティブエディター兼デジタルメディアおよびファミリー責任者であるローラ・オルドネス氏は、「(スウィフトに)それが起こると、子供たちや親たちは誰もこの影響を免れないことに気づき始めると思います」と語る。

ディープフェイクや AI 画像に基づく虐待の概念を説明する場合でも、そのような画像が被害者に与える苦痛について話す場合でも、ディープフェイクについて倫理的な決定を下すための批判的思考スキルを子供が身につけるのを助ける場合でも、親がカバーできること、カバーすべきことはたくさんあります。トピックに関する継続的な会話の中で。

始める前に、次のことを知っておく必要があります。

1. ディープフェイクについて語るのに、ディープフェイクの専門家である必要はありません。

アダム・ドッジの創設者テクノロジーに精通した親、子供と会話する前にディープフェイクを徹底的に理解する必要があると感じている親は、専門家のように思われること、専門家になることを心配する必要はないと述べています。

その代わりに必要なのは、AI を活用したソフトウェアとアルゴリズムにより、現実的で露骨なディープフェイクやポルノ的なディープフェイクを驚くほど簡単に作成できること、そしてそのようなテクノロジーはオンラインで簡単にアクセスできるという概念を基本的に理解することだけです。実際、小学生程度の子供がこの機能を備えたアプリやソフトウェアに遭遇し、それらを使用して技術的な課題や障壁がほとんどないディープフェイクを作成する可能性があります。

「私が親たちに言いたいのは、『子供たちがどれほど早い段階から、そして頻繁にこのテクノロジーにさらされているか、自分が気づいているよりも早くから起こっていることを理解し、それがいかに危険であるかを理解する必要がある』ということです。」

ドッジ氏は、親は自分の子供がテクノロジーの標的になる可能性に対処する準備をする必要があると述べている。不適切なコンテンツが表示されること。または、偽の露骨な画像の作成または共有に参加する可能性があります。

2. 講義ではなく会話にしましょう。

こうした可能性を十分に警戒している場合は、ディープフェイクについて性急に議論しないようにしてください。代わりに、オルドネス氏は、オープンエンドで批判のない方法でこの話題を取り上げ、ディープフェイクについて何を知っているか、聞いたことがあるかを子供に尋ねることを推奨しています。

彼女は、AI 画像ベースの悪用を、誤った情報や偽情報と同じ領域に存在するオンライン操作の一形態として考えることが重要であると付け加えました。このフレームワークを使用すると、ディープフェイクについて考えることが批判的思考の練習になります。

オルドネス監督、親は子供を助けることができると語る画像が操作されている兆候を知る。 AI の急速な進化により、これらの証拠となる兆候の一部はもはや現れなくなっていますが、オルドネス氏は、顔の変色、オフに見える照明、ぼやけなどによって、あらゆるディープフェイク (露骨な種類だけでなく) を識別できる可能性があることを指摘することは依然として有益であると述べています。首と髪が接します。

親も子供と一緒に学ぶことができる、とオルドネス氏は言います。これには、明示的ではない AI によって生成された偽のコンテンツについて一緒に読んだり話したりすることが含まれる場合があります。ハート・オン・マイ・スリーブ2023 年 5 月にリリースされる、AIバージョンの音声を使用していると主張ドレイクとザ・ウィークエンドの。この話は子どもたちにとって比較的リスクが低いものですが、同意なしに自分の声が使用されることがどのように感じるかについて、有意義な会話を促す可能性があります。

親はそうかもしれないオンラインクイズに挑戦するこれは、AI が生成した画像がいかに簡単に視聴者をだますことができるかについて一緒に直面するもう 1 つのリスクの低い方法です。

これらのアクティビティのポイントは、継続的な対話の開始方法と、露骨なディープフェイクやそれを作成するテクノロジーに遭遇したときに確実に試される批判的思考スキルを開発する方法をお子様に教えることです。

Mashable のトップ ストーリー

3. ディープフェイクに対するお子様の好奇心を適切な文脈に置きます。

露骨なディープフェイクは被害者に対するデジタル虐待や暴力に相当しますが、お子様はそれを完全に理解できない可能性があります。むしろ、そのテクノロジーに興味を持ち、試してみたいとさえ思うかもしれません。

ドッジ氏によると、これは当然のことですが、親は日常的に子供の好奇心に合理的な制限を設けているそうです。たとえば、アルコールは手の届かないところに保管されます。 R指定の映画は、一定の年齢に達するまで立ち入り禁止です。適切な指導と経験なしに運転することは許可されていません。

親も同様にディープフェイク技術について考えるべきだとダッジ氏は言う。 「好奇心旺盛な子供たちを罰したくはありませんが、もし子供たちがインターネットや人工知能に無制限にアクセスできるとしたら、その好奇心が子供たちを危険な道に導くことになるでしょう。」

4. お子様がディープフェイクの影響を探求できるようにお手伝いします。

子どもたちは、明示的ではないディープフェイクをエンターテイメントの一種として見るかもしれません。 10 代の若者は、ポルノのディープフェイクは本物ではないので有害ではないという一部の主張を誤って信じている可能性さえあります。

それでも、議論に同意、共感、優しさ、いじめなどの概念が組み込まれている場合、あからさまなディープフェイクは AI 画像に基づく虐待であると考えるよう説得されるかもしれません。ドッジ氏は、ディープフェイクについて議論する際にこうしたアイデアを呼び起こすと、子どもの注意が被害者に向けられる可能性があると述べている。

たとえば、10 代の若者が友人やクラスメートから物理的な物体を持ち出す前に許可を求める必要があることを知っている場合、ソーシャル メディアに投稿された写真やビデオなどのデジタル オブジェクトにも同じことが当てはまります。これらのデジタル ファイルを使用して他人のヌード ディープフェイクを作成することは、無害な冗談や実験ではなく、被害者に深い苦しみをもたらす可能性のある一種の窃盗です。

同様に、若者が路上で突然誰かを暴行しないのと同様に、事実上誰かを暴行することは彼らの価値観に合わない、とドッジ氏は言う。

「これらの被害者は捏造や偽物ではありません」とドッジ氏は言う。 「これらは本物の人々です。」

特に女性、されてきましたテクノロジーの標的にされる露骨なディープフェイクを作成します。

一般的にオルドニェス氏は、親は善良なデジタル市民であるとはどういうことかを話し、人々を誤解させる可能性があるかどうか、ディープフェイクの影響、画像を見たり被害者になることがどのような影響を与えるかについて子供が考えるのを助けることができると述べています。他の人に感じさせる。

5. 確認したい動作をモデル化します。

オルドネス氏は、親を含む大人は、その影響について深く考えずに最新のデジタルトレンドに熱心に参加することを免れないと指摘する。たとえば、大人がいかに早くクールなものを作り始めたかを考えてみましょう。Lensa アプリを使用した AI セルフポートレート誇大宣伝を超えて、プライバシー、ユーザーの権利、そしてアプリがアーティストから盗んだり、アーティストを追い出したりする可能性について、重大な懸念がありました。

このような瞬間は、親にとって自分のデジタル実践を振り返り、子供たちに取り入れてほしい行動のモデルを作るのに理想的な時間だとオルドネス氏は言います。親がオンラインでの選択について立ち止まって批判的に考え、その経験から得た洞察を子供と共有するとき、同じアプローチをどのように採用できるかを示します。

6. ペアレンタルコントロールを使用しますが、それに賭けないでください。

ディープフェイクがもたらす危険性について聞くと、親たちはそのテクノロジーを導入するアプリやソフトウェアから子供を遠ざけるための「即効性のある解決策」を望むことが多いとオルドネス氏は言う。

特定のダウンロードやサイトへのアクセスを制限するペアレントコントロールを使用することが重要だとドッジ氏は言います。ただし、そのような制御は確実ではありません。子どもたちは、自分たちが何をしているのか理解していなくても、これらの制限を回避する方法を見つけることができますし、そうするでしょう。

さらに、ドッジ氏は、子供がディープフェイクを見たり、友人の家や他人のモバイルデバイスでその技術に遭遇したりする可能性があると述べている。だからこそ、「ペアレンタルコントロールによる強力な制限を設けたり、夜間にデバイスを持ち去ったりする場合でも」、AI画像ベースの虐待について話し合うことが依然として重要であるとダッジ氏は言う。

7. 怖がらせるのではなく力を与える。

あなたの子供が AI 画像に基づいた虐待で仲間を傷つけたり、自分自身がその被害者になったりする可能性は恐ろしいものです。しかし、オルドネス氏は、子供や十代の若者がテクノロジーやコンテンツに参加するのを思いとどまらせる方法として、怖がらせる戦術を使用しないように警告しています。

特に、ソーシャル メディアの写真やビデオが露骨なディープフェイクの生成に使用される可能性がある若い女の子たちと話すとき、オルドネス氏は、自分の画像を投稿することがどのような気分になるか、そして潜在的なリスクについて話すことを提案しています。こうした会話は、ソーシャルメディアに参加したい少女たちを責めるべきではありません。ただし、リスクについて話すことは、女の子が自分のプライバシー設定を振り返るのに役立ちます。

ある時点で自分たちの写真やビデオが自分たちに対して使用されないという保証はありませんが、共有するものについて意図的に選択することで、自分に力が与えられたと感じることができます。

そして、すべての青少年や十代の若者は、性急な決断を下しやすい発達期に、あからさまなディープフェイクを作成できるテクノロジーに遭遇すると、他者に深刻な害を与える選択につながる可能性があることを知ることで恩恵を受けることができる、とオルドネス氏は言う。

ディープフェイクの作成などの行為をする前に、一歩下がって自分の気持ちを自問する方法を学ぶよう若者に奨励することは、大きな違いを生む可能性があります。

「一歩下がっても、(私たちの子供たちは)この認識を持っています。必要なのは、それを力づけ、サポートし、正しい方向に導くことだけです」とオルドネスは言う。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.