درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
سه شنبه، 15 خرداد 1403 - 11:14   

فراخوان دومین اجلاس ملی مدیران روابط‌عمومی

  فراخوان دومین اجلاس ملی مدیران روابط‌عمومی


ادامه ادامه مطلب یک

آرشیو اینترنت تحت حملات دیداس قرار گرفته است: چه خبر و چه باید کرد؟

  آرشیو اینترنت تحت حملات دیداس قرار گرفته است: چه خبر و چه باید کرد؟


ادامه ادامه مطلب دو

نقشه برداری از آگاهی انسان: مطالعه‌ای پیشگامانه

  نقشه برداری از آگاهی انسان: مطالعه‌ای پیشگامانه


ادامه ادامه مطلب سه

واحد ابری گوگل اعلام کرد که این هفته کارمندان خود را اخراج می‌کند

  واحد ابری گوگل اعلام کرد که این هفته کارمندان خود را اخراج می‌کند


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  روابط‌عمومی مبتنی بر داده: فراتر از معیارهای غرور
  چه چیزی یک رهبر عالی در تغییر ایجاد می‌کند؟
  کاهش توهم هوش مصنوعی
  مینیمال نویسی در روابط‌عمومی
  چرا رسانه‌های اجتماعی "گلوله نقره‌ای" برای بازاریابی نیستند؟
  ۴ نکته آموزش رسانه‌ای برای مدیران سطح بالا
  ۱۰ ایده‌ نوآورانه برای ارتقای روابط‌عمومی
  بازگشت به مبانی بیان آزاد
  استراتژی کلیدی برای رشد یک تجارت عکاسی سودآور
  ال‌جی با ابتکار "خوش‌بینی به فید خود" به دنبال ترویج فضای مثبت در شبکه‌های اجتماعی است
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 51811صفحه نخست » ارتباطات و روزنامه نگاریچهارشنبه، 26 اردیبهشت 1403 - 11:25
درک جعل عمیق و راه‌های مقابله با آن
جعل عمیق یا deepfake به عنوان بخشی از این اکوسیستم، نوعی از دستکاری صدا و تصویر است که به کاربران اجازه می‌دهد صورت، صدا و حرکات انسان‌ها را به طوری که واقعی به نظر برسند، شبیه‌سازی کنند. از محتوای ساخته شده با جعل عمیق، امروزه به اندازه نگران‌کننده‌ای استفاده می‌شود. برای مثال از تصویرهای شبیه‌سازی شده یک فرد، برای فرستادن عکس‌ها و ویدیوهای جنسی و ترویج خشونت جنسیتی استفاده شده است. همچنین ویدیوهای جعلی افراد مشهور و کلیپ‌های صوتی ساختگی، منتشر شده‌اند.
  

شبکه اطلاع‌رسانی روابط‌عمومی ایران (شارا) || از فیلترهای تغییر چهره در اپلیکیشن اسنپ چت گرفته تا ویدیوی جو بایدن، رئیس‌جمهور آمریکا در حال خواندن ترانه Baby Shark، عکس‌ها و ویدیوهای دست‌کاری شده در سال‌های اخیر بسیار گسترش یافته‌اند. سرعت انتشار جعل عمیق و سایر انواع دست‌کاری ترکیبی و دست‌کاری با کمک هوش مصنوعی در محتوای رسانه‌ای در حال افزایش است و خبرنگارانی که وظیفه دارند واقعیت را از دروغ جدا کنند، باید همگام با این سرعت کار کنند.

در یک جلسه اخیرِ نشست جهانی نیرومند ساختن واقعیت که از سوی مرکز بین‌المللی خبرنگاران ICFJ برگزار شده بود، ICFJ با shirin anlen، یک متخصص فن‌آوری برای رسانه‌ها در سازمان WITNESS گفتگو کرد. WITNESS که یک سازمان غیرانتفاعی است، به مردم کمک می‌کند که از ویدیو و فن‌آوری در حمایت از حقوق بشر استفاده کند. این سازمان طرحی به نام «تدارک ببینید، وحشت نکنید» (به انگلیسی: Prepare, Don’t Panic) دارد که بعلاوه ابتکارهای دیگر، بر مقابله با استفاده شرورانه از جعل عمیق و محتوای رسانه‌ای جعلی تمرکز دارد.

در این گفتگو، anlen نکاتی را مطرح کرد تا خبرنگاران بتوانند تهدیدهای برخاسته از محتوای دست‌کاری شده و راه‌های مقابله با آن را بهتر درک کنند.

در ادامه، چند نکته کلیدی این جلسه را می‌خوانید:

فن‌آوری‌ها و تهدیدهای آنها

فن‌آوری‌هایی که به سرعت در حال تکامل هستند به کاربران اجازه می‌دهند اشیاء و ویژگی‌های صورت را ویرایش کنند، پرتره‌ها را متحرک بسازند، حرکت‌ها را تغییر دهند، صداها را شبیه‌سازی کنند و...

جعل عمیق یا deepfake به عنوان بخشی از این اکوسیستم، نوعی از دستکاری صدا و تصویر است که به کاربران اجازه می‌دهد صورت، صدا و حرکات انسان‌ها را به طوری که واقعی به نظر برسند، شبیه‌سازی کنند. از محتوای ساخته شده با جعل عمیق، امروزه به اندازه نگران‌کننده‌ای استفاده می‌شود. برای مثال از تصویرهای شبیه‌سازی شده یک فرد، برای فرستادن عکس‌ها و ویدیوهای جنسی و ترویج خشونت جنسیتی استفاده شده است. همچنین ویدیوهای جعلی افراد مشهور و کلیپ‌های صوتی ساختگی، منتشر شده‌اند.

محتوای تهیه شده با جعل عمیق از طرح «Liar’s Dividend» نیز سود می‌برد که کار خبرنگاران و راستی‌آزمایان را در تأیید یا انکار اعتبار محتوای تصویری سخت‌تر می‌سازد.

anlen می‌گوید که جعل عمیق، نوعی از محتوای رسانه‌ای دست‌کاری شده است که از همه بیشتر در مورد آن صحبت می‌شود: «جعل عمیق خود بخشی از یک چشم‌انداز بزرگتر تولیدکننده است که ما هر روز آن را بیشتر و بیشتر در اخبار می‌بینیم.»

هرچند محتوای تولیدشده با جعل عمیق متداول‌تر می‌شود، به اندازه‌ای که شاید تصور شود، رایج و عام نیست. زیرا تولید آن نیازمند مهارت و دانش بسیاری است تا به شکل درست ساخته شود، ساختن آن برای افراد معمولی دشوار است. به همین علت، بسیاری از آنچه به شیوه دستکاری شده تولید می‌شود، به اندازه آنچه با جعل عمیق ساخته می‌شود، مشهور نمی‌شود.

فیلترهایی که مو، رنگ چشم و صدای فرد را تغییر می‌دهند، دستکاری‌های سطحی‌تری هستند که به نام «جعل کم‌عمق یا سطحی» شناخته می‌شوند و مردم شاید روزانه با آنها روبرو شوند، به خصوص در شبکه‌های اجتماعی. تهیه کلیپ‌های صوتیِ منتسب به افراد مشهور، نوع دیگری از جعل سطحی است.

anlen در مورد جعل عمیق می‌گوید که از آن «در سطح گسترده‌ای استفاده نشده است. اغلب آنچه در چشم‌انداز رسانه‌ای اطلاعات نادرست و دروغ می‌بینیم، محتوای تولید شده با جعل سطحی است که بیشتر، مواد بازیافتی زمینه‌ای است.»

تشخیص

هر فن‌آوری تازه یک پاشنه آشیل (نقطه ضعف یا آسیب‌پذیری) دارد و جعل عمیق هم از این قاعده مستثناء نیست. کاربران می‌توانند اشتباهات را در ظاهر تشخیص دهند. برای مثال: تصویرهای تهیه شده با جعل عمیق شاید در پس زمینه، تصویر ثابت داشته باشند و یا در آنها دندان‌ها نامنظم باشند. همچنین، ویدیوی شخصی که با هوش‌مصنوعی ساخته شده است شاید بدون مطابقت درست کلمات با حرکات لب‌ها، ساخته شده باشد.

با این حال، این فن‌آوری به سرعت در حال تغییر است. anlen می‌گوید: «در یک تحقیق گفته شد که افراد در تصاویری که با استفاده از جعل عمیق ساخته می‌شوند، پلک نمی‌زنند، بنابراین تشخیص آنها ساده است. اما دو هفته بعد، افراد در ویدیوهای جعل عمیق شروع به پلک زدن کردند.»

تلاش‌ها برای تشخیص محتوای دست‌کاری شده که امروزه دسترسی به آن آسانتر شده و کیفیت آنها افزایش یافته، مثل بازی موش و گربه است.

به گفته anlen: «نسل اول چهره‌های جعلی، چشم‌های‌شان در مرکز صورت بود. همیشه در مرکز بود، به همین خاطر برای تشخیص آن، به این موضوع توجه می‌شد. اما حالا، انواع مختلفی از تصاویر را داریم که با نورپردازی و حالت‌های متفاوت ساخته می‌شوند و چشم‌هایشان دیگر در مرکز چهره‌شان نیستند.»

anlen می‌افزاید که در دسترسی به ابزارهای با کیفیت تشخیص جعل عمیق هم کمبودهایی وجود دارد. وبسایت‌هایی وجود دارند که همه به آن دسترسی دارند، اما کارایی آنها کم است. تنها شمار اندکی از متخصصان جعل عمیق به ابزارهای تشخیص دقیق دسترسی دارند.

راه حل‌ها

در میان شیوه‌های تشخیص جعل‌های عمیق، خبرنگاران می‌توانند محتوای ویدیویی را بررسی کنند و ببینند که آیا اشکال یا کاستی در آن دیده می‌شود، تکنیک‌های موجود برای تأیید را عملی کنند و در صورت امکان از رویکردهای مبتنی بر هوش مصنوعی استفاده کنند.

همچنین افزایش سواد ابزارهای رسانه‌ای و آموزش بیشتر در مورد محتوای دستکاری شده برای خبرنگاران، بسیار مهم است.

anlen می‌گوید: «ما باید برای آماده باشیم و واقعیتها را ببینیم. باید چشم‌انداز شرایط موجود را درک کنیم تا فن‌آوری را شکل دهیم، چگونگی ساخت فن‌آوری و چگونگی تنظیم مقررات آن را شکل دهیم و خود، بخشی از آن باشیم، نه این که تنها از آن تأثیر بپذیریم.»
 

نوشته Mya Zepp

منبع: ijnet


 

 

 

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  استراتژی کلیدی برای رشد یک تجارت عکاسی سودآور


  انتخابات هیات رئیسه شورای هماهنگی روابط‌‌عمومی‌های استان کرمانشاه برگزار شد


  بازگشت به مبانی بیان آزاد


  ۱۰ ایده‌ نوآورانه برای ارتقای روابط‌عمومی


  ال‌جی با ابتکار "خوش‌بینی به فید خود" به دنبال ترویج فضای مثبت در شبکه‌های اجتماعی است


  ذهن‌های متصل، ارتباطات قدرتمند: رهبری روابط‌عمومی در عصر تحولات


  واحد ابری گوگل اعلام کرد که این هفته کارمندان خود را اخراج می‌کند


  ۴ نکته آموزش رسانه‌ای برای مدیران سطح بالا


  چرا رسانه‌های اجتماعی "گلوله نقره‌ای" برای بازاریابی نیستند؟


  مینیمال نویسی در روابط‌عمومی


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد