کارت‌های امروز راکی ربیت (جمعه ۳۰ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی کدمورس جدید همسترکامبت (جمعه ۳۰ شهریور ۱۴۰۳) + راهنمای کلید مینی‌گیم و کارت‌های امروز همستر سونی برای زنده‌کردن خاطره «پلی استیشن ۱» ظاهر پلی استیشن ۵ را به ۳۰ سال قبل برگرداند + عکس و ویدئو دانشمندان با حل رازی ۵۰ ساله، یک گروه خونی جدید کشف کردند پاسخ پازل امروز میجر (جمعه ۳۰ شهریور ۱۴۰۳) اپل پشتیبانی از چند زبان دیگر را به Apple Intelligence اضافه می‌کند کارت‌های امروز راکی ربیت (پنجشنبه ۲۹ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی کدمورس جدید همسترکامبت (پنجشنبه ۲۹ شهریور ۱۴۰۳) + آموزش کلید مینی‌گیم و کارت‌های امروز همستر سامسونگ از گوشی ارزان گلکسی F05 رونمایی کرد + مشخصات و قیمت اینستاگرام از تنظیمات اکانت کاربران زیر ۱۸ سال رونمایی کرد اولین اطلاعات از بازی جدید سری «بتلفیلد» (Battlefield) منتشر شد نخستین ویدئو از آنباکس آیفون ۱۶ پرو پیجر (Pager) چیست و چگونه کار می‌کند؟ کارت‌های امروز راکی ربیت (چهارشنبه ۲۸ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی اولین تصاویر از مقایسه گرافیک بازی‌ها در پلی استیشن ۵ پرو و پلی استیشن ۵ معمولی + عکس کدمورس جدید همسترکامبت (چهارشنبه ۲۸ شهریور ۱۴۰۳) + آموزش کلید مینی‌گیم و کارت‌های امروز همستر سیستم‌عامل iOS ۱۸ منتشر شد | iOS ۱۸ بر روی کدام گوشی‌ها قابل‌نصب است؟ تاریخ به‌پایان‌رسیدن ماینینگ «همستر کامبت» مشخص شد! + جزئیات اختلال اینترنت در کشور برطرف شد (۲۷ شهریور ۱۴۰۳) رشد دوپله‌ای جایگاه اینترنت ثابت ایران اولین گوشی رول‌شدنی سامسونگ کی عرضه می‌شود؟
سرخط خبرها

ماجرای جنجال پیام کریسمس «جعل عمیق» (دیپ فیک) از ملکه انگلیس + فیلم

  • کد خبر: ۵۳۸۶۹
  • ۰۶ دی ۱۳۹۹ - ۱۴:۲۴
ماجرای جنجال پیام کریسمس «جعل عمیق» (دیپ فیک) از ملکه انگلیس + فیلم
تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» (دیپ فیک) ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است.
به گزارش شهرآرانیوز، ویدئو‌های جعل عمیق ویدئو‌هایی هستند که در آن‌ها با استفاده از نرم‌افزار‌های هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای ویدئو، تقریبا مشابه نقش فتوشاپ در دنیای تصویر به حساب می‌آید.

کانال چهار تلویزیون انگلیس گفته هدف از پخش این ویدئو ارسال «هشدار جدی» درباره تهدید خبر جعلی در عصر دیجیتال است.

یک مقام ارشد این تلویزیون گفت: «این ویدئو یادآور قدرتمندی است برای اینکه بدانیم دیگر به چشمان‌مان هم نمی‌توانیم اعتماد کنیم.»
 
 

جعل عمیق یا دیپ فیک

سام گرگوری، کارشناس فناوری در حوزه حقوق بشر، می‌گوید: «ما هنوز ندیده‌ایم که از جعل عمیق به طور گسترده استفاده شود مگر در حمله به زنان. ما باید واقعا مراقب باشیم که مردم فکر نکنند آنچه می‌بینند قابل باور نیست. اگر کسی با این فناوری آشنا نباشند ممکن است باور کند که جعل عمیق مشکلی گسترده است.»

هرچند تقلبی بودن این ویدئو‌ها در همان ابتدا فاش شد با این حال با گذشت زمان و پیشرفت فناوری، تشخیص اصل بودن ویدئو‌ها روز به روز سخت‌تر شده است.

عملکرد فناوری جعل عمیق مبتنی بر پردازش فیلم‌ها و تصاویر قبلی موجود از شخصیت‌ها است. هرچه میزان محتوای پیشین بیشتر باشد و بتوان از ویدئو‌های بیشتری از افراد استفاده کرد، نتیجه واقعی‌تر و محتوای جعلی حقیقی‌تر به نظر خواهند آمد. از همین رو چهره‌های سیاسی یا بازیگران سینمایی که میلیون‌ها فریم ویدئو و عکس از آن‌ها وجود دارد، هدف مناسب‌تری برای ساخت ویدئو‌های تقلبی به شمار می‌آیند.

دستکاری در ویدئو‌ها در صورت صحیح انجام شدن می‌تواند تشخیص واقعی بودن ویدئو را برای بینندگان بی‌نهایت دشوار سازد. از این جهت ناظران از مدت‌ها پیش نسبت به فراگیر شدن این فناوری و تبعات مخدوش شدن واقعیت و جعل هشدار داده‌اند.

منبع: یورونیوز، تابناک‌جوان
گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->