درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
یکشنبه، 20 خرداد 1403 - 01:03   

برنامه‌های دومین اجلاس ملی مدیران روابط‌عمومی نهایی شد

  برنامه‌های دومین اجلاس ملی مدیران روابط‌عمومی نهایی شد


ادامه ادامه مطلب یک

چت‌جی‌پی‌تی اکنون در جعل کردن احساسات و رفتار انسانی بهتر از همیشه است

  چت‌جی‌پی‌تی اکنون در جعل کردن احساسات و رفتار انسانی بهتر از همیشه است


ادامه ادامه مطلب دو

60 درصد از پاسخ‌های مدل کپی لیکس حاوی سرقت ادبی است

  60 درصد از پاسخ‌های مدل کپی لیکس حاوی سرقت ادبی است


ادامه ادامه مطلب سه

اعترافات پاتریک براون در مورد دستکاری تحقیقات آب‌وهوایی

  اعترافات پاتریک براون در مورد دستکاری تحقیقات آب‌وهوایی


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  آیا بدون بک‌لینک‌ زیاد در 10 رتبه برتر گوگل قرار گرفت؟
  چت‌جی‌پی‌تی اکنون در جعل کردن احساسات و رفتار انسانی بهتر از همیشه است
  برنامه تقدیر از 3 استاد پیشکسوت علوم انسانی
  دهمین کنفرانس روابط‌عمومی و صنعت برگزار می‌شود
  لینکدین پروفایل های جعلی کارمندان مرتبط با شرکت استخدام روابط‌عمومی را حذف می‌کند
  اعترافات پاتریک براون در مورد دستکاری تحقیقات آب‌وهوایی
  دولت بایدن به دنبال اطلاعاتی در مورد نحوه استفاده وال استریت از هوش مصنوعی است
  اینفلوئنسر نیجریه‌ای: «آفریقا در غرب روابط‌عمومی ندارد»
  جذب و حفظ استعدادها در روابط‌عمومی: چالش‌ها و راه‌حل‌ها
  دبیرکل سازمان ملل خواستار ممنوعیت تبلیغات سوخت های فسیلی شد
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 53720صفحه نخست » فناوری نو و هوش مصنوعیپنجشنبه، 13 اردیبهشت 1403 - 07:27
ابزارهای هوش مصنوعی برای مقابله با جعل عمیق (دیپ فیک)
خبرنگاران و راستی‌آزمایان مستقل همچنین می‌توانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، می‌توان از ماهیت‌شان آگاه شد.
  

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || جعل عمیق که برگردان Deep fake «دیپ فیک» است، پدیده‌ای در حال افزایش است و به گسترش بیشتر اطلاعات نادرست و اطلاعات دروغ در شبکه‌های اجتماعی انجامیده است. چندرسانه‌ای های تولیدشده با هوش مصنوعی، تشخیص واقعیت را از دروغ به طور فزاینده‌ای دشوار می‌سازد. عاملان پشت پرده جعل عمیق به دنبال اثرگذاری منفی بر دانش عمومی در جریان انتخابات، گمراه ساختن مردم درباره بحران‌ها و مسایل دیگر هستند.

یک نمونه آن، تصویرهای تولیدشده با هوش مصنوعی از انفجاری در پنتاگون (وزارت دفاع ایالات متحده آمریکا) است که در ماه مه در رسانه‌های اجتماعی به گستردگی پخش شد. قبل از آن و در ماه مارس، تصویرهای تولیدشده با هوش مصنوعی از دونالد ترامپ، رئیس‌جمهوری سابق ایالات متحده، در حال بازداشت شدن و تصویرهای پاپ فرانسیس، رهبر کاتولیک‌های جهان، در حالی که یک کاپشن پفی پوشیده بود در رسانه‌های اجتماعی دست به دست شدند. در جریان انتخابات

 

 ریاست‌جمهوری امسال در نیجریه، یک فایل صوتی دست‌کاری شده که در آن ادعا شده بود آتیکو ابوبکر (Atiku Abubakar)، نامزد انتخابات، معاونش دکتر ایفینی اوکووا (Dr. Ifeanyi Okowa) و امینو تمبووال (Aminu Tambuwal)، فرماندار ایالت سوکوتو (Sokoto) به دنبال تقلب در انتخابات هستند، در فضای مجازی انتشار یافت.

سایلس جاناتان (Silas Jonathan)، محقق طرح راستی‌آزمایی Dubawa و یکی از اعضای آکادمی آفریقا برای تحقیقات [با بهره از] منابع آزاد می‌گوید که جعل عمیق بدون شک سؤال‌ها و نگرانی‌های مهمی را برای رسانه‌ها به وجود آورده است.

جفری نیابور (Jeffrey Nyabor)، خبرنگار غنایی که با Dubawa Ghana در زمینه راستی‌آزمایی کار می‌کند، بر این باور است که هرچه عاملان انتشار اطلاعات نادرست در استفاده از جعل عمیق موفق‌تر شوند، به همان اندازه رسانه‌ها اعتبار بیشتری از دست می‌دهند، چون توان مخاطبان برای تشخیص واقعیت از غیر آن کمتر خواهد شد.

با این همه، هوش مصنوعی که خودش یک مشکل است، می‌تواند راه حل نیز باشد. در این مطلب چند ابزار را که خبرنگاران می‌توانند از آنها برای مقابله با جعل عمیق استفاده کنند، معرفی کرده‌ایم.

شبکه‌های عصبی عمیق

دو نمونه از ابزارهای رایگانی که از شبکه‌های عمیق نورال (پایانه به پایانه) برای تشخیص جعل عمیق استفاده می‌کنند، TensorFlow و PyTorch هستند. از آنها می‌توان برای تجزیه و تحلیل تصویرها، ویدیوها و فایل‌های صوتی استفاده کرد تا نشانه‌های دست‌کاری در آنها تشخیص داده شود.

کاربران تنها با بارگذاری نمونه‌های اصلی و جعلی مواد رسانه‌ای (تصویر، ویدیو…) می‌توانند به مدل تشخیص‌دهنده یاد بدهند که آنها را از هم تفکیک کند. به گفته جاناتان «این شبکه‌ها می‌توانند از حجم وسیعی از اطلاعات آموزش بگیرند تا از هم گسیختگی‌ها در حالات چهره، حرکات و نمونه‌های کلامی را تشخیص دهند و در نتیجه به وجود جعل عمیق پی ببرند.»

وی می‌افزاید: «الگوریتم‌های آموزش ماشینی هم قابلیت آموزش تجزیه و تحلیل و تشخیص نمونه‌ها را در ویدیو و تصویر دارند تا تشخیص دهند که آیا این نمونه‌ها دست‌کاری شده و یا با فنون جعل عمیق تولید شده‌اند یا نه.»


Deepware

Deepware یک فن‌آوری منبع باز است که اساساً برای تشخیص ویدیوهای تولیدشده با هوش مصنوعی به کار می‌رود. این وب‌سایت یک اسکنر دارد که می‌توان ویدیوها را در آن آپلود یا بارگذاری کرد تا تشخیص دست‌کاری احتمالی میسر شود.

الگوهای این ابزار هم مانند ابزارهای دیگر تشخیص جعل عمیق، به دنبال نشانه‌های دست‌کاری در چهره انسان می‌گردند. محدودیت اصلی این ابزار، عدم توانایی آن برای تشخیص تکنیک‌های تغییر صداست که نسبت به تغییر چهره، خطر بزرگتری است.

مایووا تیجانی (Mayowa Tijani)، از سردبیران ارشد نشریه TheCable، می‌گوید: «نتیجه [کار با Deepware] همیشه درست نیست و گاهی هم نتیجه نادرستی به دست می‌آید. این به میزان خوب بودن جعل، زبان مورد استفاده در آن و چند عامل دیگر بستگی دارد.»


Sensity

Sensity، ابزاری تخصصی برای تشخیص جعل عمیق و شناختن تصویرهای تولیدشده با هوش مصنوعی است. مدل‌های یادگیری ماشینی آن می‌تواند برای تجزیه و تحلیل نشانه‌های بصری و متنی با هدف تشخیص تصویرهای تولیدشده با هوش مصنوعی استفاده شود.

اما این ابزار رایگان نیست. بهای آن بر اساس میزان استفاده ماهانه و علایق شخصی کاربران تعیین می‌شود.

Hive

با این ابزار، راستی‌آزمایان مستقل و کاربران اینترنت می‌توانند با سرعت متن‌ها و تصویرهای دیجیتال را اِسکَن کنند تا اصالت آنها را دریابند. برای تشخیص دادن اصالت یک تصویر، کاربران می‌توانند فایل را در صفحه تشخیص محتوای تولیدشده با هوش مصنوعی این ابزار بارگذاری کنند تا با سرعت پردازش شود. Hive یک extension (اکستنشن یا افزونه) مختص گوگل کروم هم دارد که می‌توان آن را به کامپیوتر اضافه کرد.


Illuminarty

Illuminarty هم قابلیت تشخیص تصویر و متن تولیدشده با هوش مصنوعی را دارد. نسخه رایگان آن شامل خدمات ابتدایی است و نسخه غیررایگان آن قابلیت‌های بیشتری ارایه می‌دهد. کاربران می‌توانند با این ابزار، قسمت دست‌کاری شده در یک تصویر را،‌ و این را که آن قسمت با کدام مدل هوش مصنوعی تهیه شده است، دریابند.

 

 این ابزار همچنین می‌تواند بررسی کند که چه قدر امکان دارد یک تصویر با هوش مصنوعی ساخته شده باشد. تمام این ابزارها می‌توانند به کاربران کمک کنند تا جعل عمیق را تشخیص دهند و با آن مقابله کنند، اما حتی این همه، همیشه نتیجه درستی به دست نمی‌دهد. به گفته جاناتان، همیشه خطر نتیجه‌گیری‌های نادرستِ مثبت و یا منفی وجود دارد. یعنی ممکن است محتوای اصلی، به اشتباه به عنوان جعل عمیق شناخته شود، و برعکس.

خبرنگاران و راستی‌آزمایان مستقل همچنین می‌توانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، می‌توان از ماهیت‌شان آگاه شد.

نوشته Salako Emmanuel
Sep 15, 2023

منبع: ijnet

 

 

انتهای پیام/

 

 


 

 


 

 

 

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  برنامه‌های دومین اجلاس ملی مدیران روابط‌عمومی نهایی شد


  پیمایش سونامی نقره‌ای: تطبیق استراتژی‌های بازاریابی و روابط‌عمومی برای تغییر نسل‌ها


  چرا بازگشت پنج روزه در دفتر بعید است


  از تخلفات تبلیغاتی هوش مصنوعی وحشت نکنید


  جهش‌های ناگهانی "مدل‌های زبان بزرگ" یک سراب است


  گوگل: تمرکز بیش از حد بر روی لینک‌ها می‌تواند اتلاف وقت باشد


  متا هوش مصنوعی را به واتس‌اپ بیزینس می‌آورد تا به کسب‌وکارها در تعامل با مشتریان کمک کند


  داستان‌ها می‌توانند ما را نجات دهند


  تحریم: یک توافق، نه یک تاکتیک تبلیغاتی در روابط‌عمومی دیجیتال


  چرا دیده شدن مدیر عامل هنوز مهم است؟


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد