شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| محققان MIT در یک مطالعه که در طول سالهای 2006 تا 2017 انجام شده دریافتند که «دروغ بهطور قابل توجهی سریعتر، عمیقتر و گستردهتر از حقیقت در تمام دستههای اطلاعات منتشر شده است». داستانهای دروغین 70 درصد احتمال بیشتری برای بازتوئیت نسبت به حقایق دارند و البته با سرعت شش برابر از حقیقت هم منتشر میشوند. (نینوایی و شمیرانی، ۱۳۹۷)
با وجود فرصتهای بسیار هوش مصنوعی، باید منتظر چالشهای آن نیز بود. از این جمله تولید سریع و ساده آثاری مبتنی بر جعل عمیق است. جهان آینده با خطر بزرگی به نام «جعل عمیق» روبرو خواهد بود که طی این تکنیک ترکیب تصاویر، امکان تولید ویدئوهای جعلی از افراد و اشخاص در حال انجام اموری که هرگز در واقعیت رخ نداده اند افزایش می یابد. این خطر سلبریتی ها و شخصیتهای سیاسی و ... را به راحتی می تواند هدف قرار دهد. از جمله نگرانی های بزرگ فعلی، تأثیراتی است که دیپ فیکها می توانند در روند یا نتایج انتخابات در جهان داشته باشند.
جورجیو پاترینی که شرکت Deep Trace را با هدف تشخیص ویدئوهای جعل عمیق در سال 2018 در هلند تأسیس کرده معتقد است: در حال حاضر جعل عمیق به عنوان یک موج ضد امنیت در شبکه جهانی اینترنت شناخته میشود، چرا که افراد یا گروههای سودجو با ارائه ویدئوهای ساختگی میتوانند تأثیرات منفی در جامعه هدف ایجاد کنند. طبق آمار جمعآوری شده توسط این شرکت، در حال حاضر بیش از ۸۰۰۰ ویدئوی جعل عمیق از بازیگران معروف زن در اینترنت منتشر شده است. (ایسنا، 1397)
فناوری مبتنی بر هوش مصنوعی، ظرفیت ایجاد تحولی عظیم در صنعت عکاسی جهان را دارد. فناوری جدید علاوه بر توانایی ایجاد تصاویر پرتره، میتواند تصاویر جعلی از هر چیزی اعم از حیوانات، خانه، خودرو و غیره تولید کند که در جهان واقعیت اصلا وجود خارجی ندارند و غیرواقعی بوده و به صورت مصنوعی و جعلی تولید می شوند. چنین فناوریهایی میتواند جنبههای مثبت و منفی داشته باشد. شاید روزی فرا برسد که عکاسان حرفهای برای گرفتن عکسهای فوقالعاده زیبا از طبیعت، مجبور نشوند به دامن طبیعت بروند و همه اتفاقات ازطریق اپلیکیشنهای مبتنی بر هوش مصنوعی و روی سیستم کامپیوتری به انجام برسد. (شاهید، 1397)
نرم افزارهای هوش مصنوعی قادر هستند که یک دنیای کاملاً دیجیتالی را از روی یک طرح و اسکچ ساده جعل و بازآفرینی کرده و نیز براساس تصاویر واقعی، به طراحی واقعیت مجازی اقدام کنند. اینگونه حرکتها، وعده انقلابی در فضای کامپیوترهای گرافیکی و متخصصان جلوه های ویژه و همچنین هنرمندان فعال در زمینه صداها می دهد تا آنها بتوانند با استفاده از آن ایده هایشان را پرورش دهند و گسترده سازند. البته استفاده از این ابزار، برای تولید شواهد صوتی و تصویری قلابی که اعتماد جامعه را از بین می برند هم استفاده می شود. برایان کاتانزارو نایب رئیس بخش یادگیری عمیق Deep Learning انویدیا اعتراف می کند که از پروژه آنها ممکن است سوءاستفاده هم بشود: «این تکنولوژی است که از آن می توان برای کارهای بسیار زیادی استفاده کرد.» (بنتک، 1397)
به همان نسبت که هوش مصنوعی قادر به تولید آثاری مبتنی بر دیپ فیک یا جعل عمیق است از سویی، همین امکان، قادر به شناسایی تصاویر جعلی و فتوشاپ شده است.
تصاویر بسیاری همچون عکس های تبلیغاتی، عکس های ویروسی یا تصاویر بد نام کننده از سیاستمداران یا افراد مشهور و همینطور تصاویر شواهد پزشکی قانونی که توسط قانون استفاده می شود و...، می توانند به راحتی فتوشاپ شوند یا تغییراتی در آن ها اعمال شود که شاید تشخیص آنها برای افراد به راحتی ممکن نباشد. در این شرایط، هوش مصنوعی، برای شناسایی هرزنامه ها (اطلاعات دروغ)، نشان دادن جعلی بودن کارت اعتباری در معاملات و همینطور یادگیری نحوه بحث و درک گفتار انسانی بسیار مفید و کارآمد است. همچنین این فناوری می تواند نشانه هایی از ویرایش در تصویر را مشخص کند و ضمن تشخیص آثار دستکاری شده و جعلی، بین تکنیکهای دستکاری نیز تمایز قائل شود. (حاتم، 1397)
یکی از چالشهای موجود امکان شناسایی تصاویر واقعی از تصاویر طراحی شده توسط هوش مصنوعی است. جوین وست و کارل برگستروم از اساتید دانشگاه واشینگتن و از موسسان سایت WhichFaceIsReal.com، در تلاش برای ایجاد این تشخیص از طریق سایت خود هستند. وست و برگستروم بر این باورند که با وجود فناوری خلق چهره به وسیله هوش مصنوعی، امکان سوء استفاده از آن نیز همواره وجود دارد و به عنوان مثال جنایتکاران میتوانند از این فناوری برای ساخت تصویری از چهره یک انسان غیرواقعی استفاده کرده و با انتشار آن در فضای مجازی، یک متهم خیالی را معرفی کرده و توجه رسانهها و مردم را از واقعیت منحرف کنند.
از نظر آنها ممکن است امکان تشخیص صحت دیپ فیکها یا ویدئوهای مبتنی بر جعل عمیق با کمی جستجو در موتورهای جستجو قابل تشخیص شوند ولی برای تصاویر تولید شده توسط هوش مصنوعی ممکن است به راحتی این امکان نباشد، کما اینکه هر روز نیز امکان این تشخیص سخت تر می شود. (محمودزاده، 1397)
روبینا مدان فیلیون مدیر بخش ارتباط با مخاطب در سازمان رسانهای Intercept معتقد است تقارن نامیمون اوجگیری اقتدارگرایان عوامگرا و نژادپرستان افراطی با افزایش تولیدات رسانهای مبتنی بر دیپ فیک، خسرانی هولناک به دنبال دارد چراکه افکار عمومی دیگر نمیتواند آنچه را که میبیند و میشنود، به قطع و یقین باور کند و از سوی دیگر حاکمان و رهبران سیاسی نیز پوشش منفی عملکرد خود را که مبتنی بر شواهد است، به بهانه این مهم به سهولت کتمان میکنند و چنین است که واقعیت، اعتبار و روایی خود را در مسلخ این روش فناورانه، ذبحشده میبیند. (فلسفی، 1398: 5)
برگستروم می گوید: ما نمیگوییم مردم هیچ چیز را باور نکنند، بلکه پیام ما این است که زودباور نباشید. (محمودزاده، 1397)
در حال حاضر محققان در حال ساختن و کار کردن روی ابزاری هستند که بتواند جعلیات عمیق را تشخیص داده و شناسایی کند. منابع رسانهای میتوانند از کارشناسان فناوریهای مرتبط برای بررسی اخبار جعلی کمک بگیرند و استانداردهایی را به منظور تأیید یک ویدئو یا تصویر منتشرشده در نظر بگیرند. در این چارچوب فیلیون معتقد است الگوریتمهایی برای کمک به تشخیص تولیدات مبتنی بر دیپ فیک وجود دارد که پژوهشگران بهواسطه آنها راههایی برای تشخیص فیلمها، عکسها و اصوات جعلی یافتهاند. اظهار امیدواری وی به راهکارهایی مانند آنچه والاستریت ژورنال برای آموزش خبرنگاران خود در نظر گرفته، اشاره دارد که فنونی چون استفاده از گوگل ایمیجز و تینآی را برای راستی آزمایی عکس همچنین بهرهمندی از نرمافزارهای ویرایش ویدئویی برای مشاهده فریم به فریم فیلمها جهت بررسی و تشخیص دقیق چگونگی باز و بسته شدن چشمها، حرکات اطراف دهان و لب، فراز و فرود و لحنِ صدا، نور و سایه و حرکات طبیعی و غیرطبیعی اندامها را با تمسک به منطق فازی شامل میشود. (فلسفی، 1398: 5)
سازمانهای تأیید محتوا مثل آسوشیتدپرس و استوریفول در زمینه تأیید ویدئوها و اخبار به صورت رسمی فعالیت میکنند. البته هر روز نیز ابزار جدیدی برای تایید صحت و بررسی جعلی نبودن فایلهای تصویری منتشر میشود. برای مثال، ابزارهای جدیدی از جمله TruePic و Serelay از بلاکچین برای احراز هویت عکس استفاده میکنند. صرفنظر از تکنولوژی مورد استفاده، انسان در اتاق خبر در مرکز این روند قرار دارد.
سعید رجیو، کارشناس ارشد بررسی اخبار جعلی معتقد است که به هر صورت فناوری بهتنهایی نمیتواند راهحل کشف و از بین بردن اخبار جعلی باشد، بلکه این ترکیب هوش مصنوعی، فناوری و نیروی انسانی است که میتواند باعث کشف اخبار جعلی شود. (نینوایی و شمیرانی، ۱۳۹۷)
علی رغم بهره گیری از هوش مصنوعی، گرفتن تأیید صحت محتوا از مراکز تشخیص صحت یا عدم صحت اخبار و تصاویر، افزایش سوادهای نوین برای عموم جامعه، فعالان حوزه رسانه ای و بصری ضروری است.
|