ویدئو؛ سرگرمی یا خطر؛ دستکاری تصاویر با دیپ فیک
“دیپ فیکها”(Deepfakes) که ترکیبی از تصویر و صدا هستند برای سالها مورد بحث اخلاقگرایان در حوزه دیجیتال بودهاند مخصوصا زمانی که این موضوع در ساخت فیلمهای جعلی و هرزه نگاری استفاده شود میتواند موسسات ملی و مالی را تهدید کند.
قضیه وقتی خطرناکتر میشود که تصور کنیم با پیشرفت فناوری “دیپفیک” چه سوءاستفادههایی میتوان از این فناوری انجام داد تا جایی که شاید روزی مقوله هویت و احراز آن به یک شوخی تبدیل شود.
برای استفاده مثبت از این فناوری شرکتها از آن برای ساخت کمپینهای تبلیغاتی استفاده میکنند که برای افراد شخصیسازی شده است. به گفتهی متخصصان بازده تبلیغات زمانی بیشتر میشود که مصرفکننده با آن برند یا محصول ارتباط بیشتری برقرار کند و ببیند که آن محصول به گونهای خاص در زندگیاش نقش دارد و مدلی شبیه به خودش و با زبان خودش آن را نمایش میدهد.
ایجاد گرافیک رایانهای هوشهای مصنوعی از صورت انسانها خطری دیگر برای امنیت ما در محیط مجازی است اگرچه گاهی هم ایرادات آن هنگامی که نمیداند با بخشهای غیر عادی مثل عینک و گوشها چه کند خندهدار است و حتی در پیچیدهترین “دیپ فیک”ها مثل دیپ فیک تام کروز(Tom Cruise) نیز تناقضهای جزئی وجود دارد که باعث میشود به حقیقت آن شک کنیم. با این حال این مشکلات جزئی با پیشرفت این فناوری از بین خواهند رفت و فرید میگوید زمان آن رسیده تا شرکتها به پیامدهای اخلاقی این فناوری نگاهی نقادانه داشته باشند.
او افزود: ما باید ساختن چنین چیزهایی را متوقف کنیم و در مورد آنها سوال کنیم پیش از آن که خیلی دیر شود.
برنامهی “نوستالژی عمیق” MyHeritage پیش از استفاده به افراد در مورد استفاده بدون اجازه از عکس دیگران هشدار میدهد و میگوید برای حفظ امنیت افراد این شرکت گزینهی افزودن صدا به تصاویر قرار نداده است.
در آینده شاید برنامههای دیگری این خللها را پر کنند تا ما بتوانیم افرادی که برای مدتها ندیدهایم را ببینیم با آنها صحبت کنیم. چنین فناوری چالشهای فراوانی در برابر امنیت و باورپذیری خواهد داشت اما هنگامی که میبینیم کسانی که دوستشان داریم به ما لبخند میزنند مقاومت در برابر این فناوری بسیار دشوار خواهد شد.
یک دیدگاه