درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
شنبه، 29 اردیبهشت 1403 - 12:33   

فراخوان دومین اجلاس ملی مدیران روابط‌عمومی

  فراخوان دومین اجلاس ملی مدیران روابط‌عمومی


ادامه ادامه مطلب یک

رئیس اوپن‌ای‌آی اولین تصویر تولید شده توسط GPT-4o را به اشتراک می‌گذارد

  رئیس اوپن‌ای‌آی اولین تصویر تولید شده توسط GPT-4o را به اشتراک می‌گذارد


ادامه ادامه مطلب دو

سام آلتمن می‌گوید نمی‌تواند برای غذا خوردن بیرون برود

  سام آلتمن می‌گوید نمی‌تواند برای غذا خوردن بیرون برود


ادامه ادامه مطلب سه

تبلیغات سامسونگ اپل را به خاطر فاجعه بازاریابی له می‌کند

  تبلیغات سامسونگ اپل را به خاطر فاجعه بازاریابی له می‌کند


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  روابط‌عمومی‌ها نقش مهمی در انعکاس خدمات دولت در دستگاه‌های اجرایی دارند
  روابط‌عمومی مدیر مدار یا روابط‌عمومی مردم‌دار؟
  چالش‌های بازاریابی برای کسب‌وکارهای کوچک در سال ۲۰۲۴: گزارش اضطراب را نشان می‌دهد
  مسئولیت اجتماعی و روابط‌عمومی دو روی یک سکه
  ۵ ضعف سرمایه‌‌‌داری و مسوولیت‌‌‌پذیری اجتماعی
  هوش مصنوعی مولد توسعه ربات‌های انسان‌نما را سرعت می‌بخشد: این برای مشاغل چه معنایی دارد؟
  چگونه مدیران می‌توانند از بازاریابی دیجیتال استفاده کنند؟
  شیفتگی جمعی
  7 کلید برای به دست آوردن بیشترین بهره از هوش مصنوعی مولد
  چگونه اخبار جعلی را در طول جنگ تشخیص دهیم؟
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 53720صفحه نخست » فناوری نو و هوش مصنوعیپنجشنبه، 13 اردیبهشت 1403 - 07:27
ابزارهای هوش مصنوعی برای مقابله با جعل عمیق (دیپ فیک)
خبرنگاران و راستی‌آزمایان مستقل همچنین می‌توانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، می‌توان از ماهیت‌شان آگاه شد.
  

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || جعل عمیق که برگردان Deep fake «دیپ فیک» است، پدیده‌ای در حال افزایش است و به گسترش بیشتر اطلاعات نادرست و اطلاعات دروغ در شبکه‌های اجتماعی انجامیده است. چندرسانه‌ای های تولیدشده با هوش مصنوعی، تشخیص واقعیت را از دروغ به طور فزاینده‌ای دشوار می‌سازد. عاملان پشت پرده جعل عمیق به دنبال اثرگذاری منفی بر دانش عمومی در جریان انتخابات، گمراه ساختن مردم درباره بحران‌ها و مسایل دیگر هستند.

یک نمونه آن، تصویرهای تولیدشده با هوش مصنوعی از انفجاری در پنتاگون (وزارت دفاع ایالات متحده آمریکا) است که در ماه مه در رسانه‌های اجتماعی به گستردگی پخش شد. قبل از آن و در ماه مارس، تصویرهای تولیدشده با هوش مصنوعی از دونالد ترامپ، رئیس‌جمهوری سابق ایالات متحده، در حال بازداشت شدن و تصویرهای پاپ فرانسیس، رهبر کاتولیک‌های جهان، در حالی که یک کاپشن پفی پوشیده بود در رسانه‌های اجتماعی دست به دست شدند. در جریان انتخابات

 

 ریاست‌جمهوری امسال در نیجریه، یک فایل صوتی دست‌کاری شده که در آن ادعا شده بود آتیکو ابوبکر (Atiku Abubakar)، نامزد انتخابات، معاونش دکتر ایفینی اوکووا (Dr. Ifeanyi Okowa) و امینو تمبووال (Aminu Tambuwal)، فرماندار ایالت سوکوتو (Sokoto) به دنبال تقلب در انتخابات هستند، در فضای مجازی انتشار یافت.

سایلس جاناتان (Silas Jonathan)، محقق طرح راستی‌آزمایی Dubawa و یکی از اعضای آکادمی آفریقا برای تحقیقات [با بهره از] منابع آزاد می‌گوید که جعل عمیق بدون شک سؤال‌ها و نگرانی‌های مهمی را برای رسانه‌ها به وجود آورده است.

جفری نیابور (Jeffrey Nyabor)، خبرنگار غنایی که با Dubawa Ghana در زمینه راستی‌آزمایی کار می‌کند، بر این باور است که هرچه عاملان انتشار اطلاعات نادرست در استفاده از جعل عمیق موفق‌تر شوند، به همان اندازه رسانه‌ها اعتبار بیشتری از دست می‌دهند، چون توان مخاطبان برای تشخیص واقعیت از غیر آن کمتر خواهد شد.

با این همه، هوش مصنوعی که خودش یک مشکل است، می‌تواند راه حل نیز باشد. در این مطلب چند ابزار را که خبرنگاران می‌توانند از آنها برای مقابله با جعل عمیق استفاده کنند، معرفی کرده‌ایم.

شبکه‌های عصبی عمیق

دو نمونه از ابزارهای رایگانی که از شبکه‌های عمیق نورال (پایانه به پایانه) برای تشخیص جعل عمیق استفاده می‌کنند، TensorFlow و PyTorch هستند. از آنها می‌توان برای تجزیه و تحلیل تصویرها، ویدیوها و فایل‌های صوتی استفاده کرد تا نشانه‌های دست‌کاری در آنها تشخیص داده شود.

کاربران تنها با بارگذاری نمونه‌های اصلی و جعلی مواد رسانه‌ای (تصویر، ویدیو…) می‌توانند به مدل تشخیص‌دهنده یاد بدهند که آنها را از هم تفکیک کند. به گفته جاناتان «این شبکه‌ها می‌توانند از حجم وسیعی از اطلاعات آموزش بگیرند تا از هم گسیختگی‌ها در حالات چهره، حرکات و نمونه‌های کلامی را تشخیص دهند و در نتیجه به وجود جعل عمیق پی ببرند.»

وی می‌افزاید: «الگوریتم‌های آموزش ماشینی هم قابلیت آموزش تجزیه و تحلیل و تشخیص نمونه‌ها را در ویدیو و تصویر دارند تا تشخیص دهند که آیا این نمونه‌ها دست‌کاری شده و یا با فنون جعل عمیق تولید شده‌اند یا نه.»


Deepware

Deepware یک فن‌آوری منبع باز است که اساساً برای تشخیص ویدیوهای تولیدشده با هوش مصنوعی به کار می‌رود. این وب‌سایت یک اسکنر دارد که می‌توان ویدیوها را در آن آپلود یا بارگذاری کرد تا تشخیص دست‌کاری احتمالی میسر شود.

الگوهای این ابزار هم مانند ابزارهای دیگر تشخیص جعل عمیق، به دنبال نشانه‌های دست‌کاری در چهره انسان می‌گردند. محدودیت اصلی این ابزار، عدم توانایی آن برای تشخیص تکنیک‌های تغییر صداست که نسبت به تغییر چهره، خطر بزرگتری است.

مایووا تیجانی (Mayowa Tijani)، از سردبیران ارشد نشریه TheCable، می‌گوید: «نتیجه [کار با Deepware] همیشه درست نیست و گاهی هم نتیجه نادرستی به دست می‌آید. این به میزان خوب بودن جعل، زبان مورد استفاده در آن و چند عامل دیگر بستگی دارد.»


Sensity

Sensity، ابزاری تخصصی برای تشخیص جعل عمیق و شناختن تصویرهای تولیدشده با هوش مصنوعی است. مدل‌های یادگیری ماشینی آن می‌تواند برای تجزیه و تحلیل نشانه‌های بصری و متنی با هدف تشخیص تصویرهای تولیدشده با هوش مصنوعی استفاده شود.

اما این ابزار رایگان نیست. بهای آن بر اساس میزان استفاده ماهانه و علایق شخصی کاربران تعیین می‌شود.

Hive

با این ابزار، راستی‌آزمایان مستقل و کاربران اینترنت می‌توانند با سرعت متن‌ها و تصویرهای دیجیتال را اِسکَن کنند تا اصالت آنها را دریابند. برای تشخیص دادن اصالت یک تصویر، کاربران می‌توانند فایل را در صفحه تشخیص محتوای تولیدشده با هوش مصنوعی این ابزار بارگذاری کنند تا با سرعت پردازش شود. Hive یک extension (اکستنشن یا افزونه) مختص گوگل کروم هم دارد که می‌توان آن را به کامپیوتر اضافه کرد.


Illuminarty

Illuminarty هم قابلیت تشخیص تصویر و متن تولیدشده با هوش مصنوعی را دارد. نسخه رایگان آن شامل خدمات ابتدایی است و نسخه غیررایگان آن قابلیت‌های بیشتری ارایه می‌دهد. کاربران می‌توانند با این ابزار، قسمت دست‌کاری شده در یک تصویر را،‌ و این را که آن قسمت با کدام مدل هوش مصنوعی تهیه شده است، دریابند.

 

 این ابزار همچنین می‌تواند بررسی کند که چه قدر امکان دارد یک تصویر با هوش مصنوعی ساخته شده باشد. تمام این ابزارها می‌توانند به کاربران کمک کنند تا جعل عمیق را تشخیص دهند و با آن مقابله کنند، اما حتی این همه، همیشه نتیجه درستی به دست نمی‌دهد. به گفته جاناتان، همیشه خطر نتیجه‌گیری‌های نادرستِ مثبت و یا منفی وجود دارد. یعنی ممکن است محتوای اصلی، به اشتباه به عنوان جعل عمیق شناخته شود، و برعکس.

خبرنگاران و راستی‌آزمایان مستقل همچنین می‌توانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، می‌توان از ماهیت‌شان آگاه شد.

نوشته Salako Emmanuel
Sep 15, 2023

منبع: ijnet

 

 

انتهای پیام/

 

 


 

 


 

 

 

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  هفت گام برای توسعه روابط‌عمومی


  8 راه برای تقویت رابطه ایمنی عمومی - جامعه با روابط‌عمومی


  ۵ ضعف سرمایه‌‌‌داری و مسوولیت‌‌‌پذیری اجتماعی


  مرجعیت رسانه‌ای


  7 کلید برای به دست آوردن بیشترین بهره از هوش مصنوعی مولد


  در نکوهش چاپلوسی و رفتارهای منافقانه


  شیفتگی جمعی


  ارتباطات پایدار و نقش روابط‌عمومی‌


  چگونه اخبار جعلی را در طول جنگ تشخیص دهیم؟


  چگونه مدیران می‌توانند از بازاریابی دیجیتال استفاده کنند؟


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد