نیویورک: از تصویربرداری هوش مصنوعی میتوان برای خلق آثار هنری، امتحان کردن لباسها در اتاقهای لباس مجازی یا کمک به طراحی کمپینهای تبلیغاتی استفاده کرد. اما کارشناسان بیم دارند که جنبه تاریک ابزارهایی که به راحتی در دسترس هستند می تواند چیزی را بدتر کند که در درجه اول به زنان آسیب می زند: پورنوگرافی عمیق جعلی غیر توافقی.
دیپ فیک ها ویدئوها و تصاویری هستند که به صورت دیجیتالی با هوش مصنوعی یا یادگیری ماشینی ایجاد شده یا تغییر یافته اند. پورن های ایجاد شده با استفاده از این فناوری اولین بار چندین سال پیش زمانی که یکی از کاربران Reddit کلیپ هایی را به اشتراک گذاشت که چهره افراد مشهور زن را روی شانه های بازیگران پورن قرار می داد، در سراسر اینترنت پخش شد.
از آن زمان، سازندگان دیپ فیک ویدئوها و تصاویر مشابهی را با هدف قرار دادن اینفلوئنسرهای آنلاین، روزنامه نگاران و دیگران با نمایه عمومی منتشر کرده اند. هزاران ویدیو در بسیاری از وب سایت ها وجود دارد. و برخی به کاربران این فرصت را میدهند که تصاویر خود را بسازند – اساساً به هر کسی اجازه میدهند هر کسی را که میخواهند بدون رضایت آنها به خیالات جنسی تبدیل کنند یا از این فناوری برای آسیب رساندن به شرکای قبلی استفاده کنند.
به گفته کارشناسان، این مشکل زمانی که ساخت دیپ فیک های پیچیده آسان تر شد، بیشتر شد. و آنها می گویند که با توسعه ابزارهای هوش مصنوعی مولد که بر روی میلیاردها تصویر از اینترنت آموزش داده می شوند و با استفاده از داده های موجود، محتوای جدید را منتشر می کنند، ممکن است بدتر شود.
“واقعیت این است که این فناوری به توسعه خود ادامه خواهد داد و به آسانی فشار دادن دکمه ادامه خواهد داد.” آدام دوج، بنیانگذار EndTAB، گروهی که آموزش هایی را در مورد سوء استفاده از فناوری ارائه می دهد. و تا زمانی که این اتفاق بیفتد، مردم به سوء استفاده از این فناوری برای آسیب رساندن به دیگران، عمدتاً از طریق خشونت جنسی آنلاین، پورن عمیق و تصاویر برهنه جعلی ادامه خواهند داد.»
نوئل مارتین، از پرت استرالیا، این واقعیت را تجربه کرده است. این دختر 28 ساله 10 سال پیش زمانی که یک روز از روی کنجکاوی از گوگل برای جستجوی تصویری از خود استفاده کرد، پورن عمیق جعلی خود را پیدا کرد. تا امروز، مارتین او میگوید نمیداند چه کسی این تصاویر جعلی یا ویدئوهایی را که از رابطه جنسی او ایجاد کرده است، ایجاد کرده است. مارتین وحشت زده، چندین سال با وب سایت های مختلف تماس گرفت تا بتواند تصاویر را حذف کند. بعضی ها جواب ندادند دیگران آن را پایین آوردند اما او به زودی دوباره آن را پیدا کرد. او گفت: “شما نمی توانید برنده شوید.” در نهایت، مارتین توجه خود را به قانون معطوف کرد و از قانون ملی در استرالیا حمایت کرد که شرکتها را در صورت عدم رعایت اخطارهای حذف چنین محتوایی از سوی تنظیمکنندههای ایمنی آنلاین، 555000 دلار استرالیا (370706 دلار) جریمه میکند.
اما زمانی که کشورها قوانین خاص خود را برای محتوایی دارند که گاهی در نیمههای دنیا ساخته میشود، اداره اینترنت تقریباً غیرممکن است. در این میان، برخی از مدلهای هوش مصنوعی میگویند که دسترسی به تصاویر واضح را محدود میکنند. ap
دیپ فیک ها ویدئوها و تصاویری هستند که به صورت دیجیتالی با هوش مصنوعی یا یادگیری ماشینی ایجاد شده یا تغییر یافته اند. پورن های ایجاد شده با استفاده از این فناوری اولین بار چندین سال پیش زمانی که یکی از کاربران Reddit کلیپ هایی را به اشتراک گذاشت که چهره افراد مشهور زن را روی شانه های بازیگران پورن قرار می داد، در سراسر اینترنت پخش شد.
از آن زمان، سازندگان دیپ فیک ویدئوها و تصاویر مشابهی را با هدف قرار دادن اینفلوئنسرهای آنلاین، روزنامه نگاران و دیگران با نمایه عمومی منتشر کرده اند. هزاران ویدیو در بسیاری از وب سایت ها وجود دارد. و برخی به کاربران این فرصت را میدهند که تصاویر خود را بسازند – اساساً به هر کسی اجازه میدهند هر کسی را که میخواهند بدون رضایت آنها به خیالات جنسی تبدیل کنند یا از این فناوری برای آسیب رساندن به شرکای قبلی استفاده کنند.
به گفته کارشناسان، این مشکل زمانی که ساخت دیپ فیک های پیچیده آسان تر شد، بیشتر شد. و آنها می گویند که با توسعه ابزارهای هوش مصنوعی مولد که بر روی میلیاردها تصویر از اینترنت آموزش داده می شوند و با استفاده از داده های موجود، محتوای جدید را منتشر می کنند، ممکن است بدتر شود.
“واقعیت این است که این فناوری به توسعه خود ادامه خواهد داد و به آسانی فشار دادن دکمه ادامه خواهد داد.” آدام دوج، بنیانگذار EndTAB، گروهی که آموزش هایی را در مورد سوء استفاده از فناوری ارائه می دهد. و تا زمانی که این اتفاق بیفتد، مردم به سوء استفاده از این فناوری برای آسیب رساندن به دیگران، عمدتاً از طریق خشونت جنسی آنلاین، پورن عمیق و تصاویر برهنه جعلی ادامه خواهند داد.»
نوئل مارتین، از پرت استرالیا، این واقعیت را تجربه کرده است. این دختر 28 ساله 10 سال پیش زمانی که یک روز از روی کنجکاوی از گوگل برای جستجوی تصویری از خود استفاده کرد، پورن عمیق جعلی خود را پیدا کرد. تا امروز، مارتین او میگوید نمیداند چه کسی این تصاویر جعلی یا ویدئوهایی را که از رابطه جنسی او ایجاد کرده است، ایجاد کرده است. مارتین وحشت زده، چندین سال با وب سایت های مختلف تماس گرفت تا بتواند تصاویر را حذف کند. بعضی ها جواب ندادند دیگران آن را پایین آوردند اما او به زودی دوباره آن را پیدا کرد. او گفت: “شما نمی توانید برنده شوید.” در نهایت، مارتین توجه خود را به قانون معطوف کرد و از قانون ملی در استرالیا حمایت کرد که شرکتها را در صورت عدم رعایت اخطارهای حذف چنین محتوایی از سوی تنظیمکنندههای ایمنی آنلاین، 555000 دلار استرالیا (370706 دلار) جریمه میکند.
اما زمانی که کشورها قوانین خاص خود را برای محتوایی دارند که گاهی در نیمههای دنیا ساخته میشود، اداره اینترنت تقریباً غیرممکن است. در این میان، برخی از مدلهای هوش مصنوعی میگویند که دسترسی به تصاویر واضح را محدود میکنند. ap