چگونه فریب عکس و فیلمهای تولیدشده توسط هوش مصنوعی را نخوریم؟
هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده میکند و تردیدهایی درباره هر آنچه میخوانیم، میبینیم و میشنویم ایجاد میکند.
به گزارش دنده6 : پیشرفتهای هوشمصنوعی مولد، باعث شده تا این روزها همهجا شاهد تصاویر، ویدیوها، صداها و رباتهای جعلی باشیم؛ اما راهی برای تشخیص واقعی یا جعلی بودن این اطلاعات وجود دارد؟ شاید بتوان گفت که مطالعه، بهترین راه برای تشخیص واقعی بودن این موارد است.
سختی تشخیص تصاویر، ویدئو، صدا و متن تولیدشده توسط هوش مصنوعی در زمان فعلی سخت است و همین ما را در معرض دستکاری اطلاعات نادرست قرار میدهد؛ اما با دانستن وضعیت فعلی فناوریهای هوش مصنوعی و طیف وسیعی از نشانههای گویا، میتوانید از خودتان در مقابل این خطرات احتمالی محافظت کنید.
دراینبین، حتی رهبران جهان هم نگران هستند. طبق گزارش مجمع جهانی اقتصاد، اطلاعات نادرست ممکن است طی دو سال آینده، فرآیندهای انتخاباتی را در چندین کشور مختل کنند؛ درعینحال، دسترسی آسانتر به ابزارهای هوش مصنوعی همین حالا هم باعث انفجار اطلاعات جعلی و مصنوعی شده و محتواهای جعلی متعددی، از شبیهسازی صوتی پیچیده تا وبسایتهای تقلبی ایجادشده است.
هانی فرید از دانشگاه کالیفرنیا دراینباره گفت: «مشکل اطلاعات نادرست مبتنی بر هوش مصنوعی در مقیاس، سرعت و سهولت راهاندازی کمپینهاست و یک فرد بهتنهایی و تنها با دسترسی به قدرت محاسباتی متوسطی میتواند حجم عظیمی از محتوای جعلی ایجاد کند.» او در ادامه به این نکته اشاره کرد که هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده میکند و تردیدهایی درباره هر آنچه میخوانیم، میبینیم و میشنویم ایجاد میکند.
طبق تحقیقات فرید، گرچه در بسیاری از موارد، تصاویر و صداهای تولیدشده توسط هوش مصنوعی، قابلتشخیص نیستند ولی با استفاده از برخی استراتژیها، میتوان برای کاهش خطر فریب خوردن با اطلاعات نادرست رسانههای اجتماعی یا اطلاعات نادرست ایجادشده توسط هوش مصنوعی وارد عمل شد.
تشخیص تصاویر جعلی هوش مصنوعی
چندی پیش عکسی جعلی از پاپ فرانسیس درحالیکه کاپشنی پفی به تن داشت، منتشر شد. چنین تصاویر جعلی هوشمصنوعی حالا بهمراتب رایجتر شدهاند؛ چراکه ابزارهای جدید مبتنی بر مدلهای انتشار، به هر فردی اجازه میدهد تا تصاویر را از طریق پیامهای متنی ساده تولید کند. نیکلاس دوفور یکی از محققان گوگل و همکارانش اعلام کردند که از اوایل سال ۲۰۲۳ به بعد، نسبت تصاویر تولیدشده توسط هوش مصنوعی افزایش چشمگیری داشته است.
نگار کمالی از دانشگاه نورث وسترن دراینباره گفت: «امروزه، سواد رسانهای نیاز به سواد هوش مصنوعی دارد.» او و همکارانش در مطالعهای در سال ۲۰۲۴، پنج دسته مختلف از خطاها را در تصاویر تولیدشده توسط هوش مصنوعی شناسایی کردند و درعینحال راهکارهایی برای تشخیص این خطاها ارائه نمودند.
تحقیقات آنها نشان میدهد که در حال حاضر دقت افراد در تشخیص تصاویر جعلی هوش مصنوعی حدود ۷۰% است. شما میتوانید از تست تصویر آنلاین برای ارزیابی مهارتهایتان در تشخیص این تصاویر استفاده کنید.
پنج سرنخ کاربردی برای تشخیص تصاویر تولیدی توسط هوش مصنوعی:
۱– تناقضهای اجتماعی-فرهنگی: ممکن است در تصویر، رفتاری نادر، غیرعادی یا شگفتانگیز برای فرهنگها یا شخصیتهای تاریخی خاص به نمایش درآمده باشد.
۲– تناقضهای آناتومیک: بهدقت به تصویر نگاه کنید. آیا اعضای بدن مثل دستها، شکل یا اندازهای غیرعادی دارند؟ آیا فرم چشمها یا دهان عجیب به نظر میرسند؟ آیا برخی اعضای بدن باهم ادغامشدهاند؟
۳– حالات غیرطبیعی: آیا تصویر غیرطبیعی به نظر میرسد؟ یا بیشازحد ایدهآل و بیعیب است؟ آیا پسزمینه عجیب است یا چیزی از آن کم شده؟ شاید نور عجیب یا متغیر است؟
۴– تردید در اشیای عملکردی: آیا برخی اشیا برایتان عجیب به نظر میرسند یا ممکن است واقعی نباشند یا کار نکنند؟ مثلاً موقعیت دکمهها یا سگکهای کمربند عجیب است؟
۵– نقض فیزیکی: دقت کنید که آیا سایهها در تصویر در جهتهای مختلف هستند؟ آیا انعکاسهای آینهای با دنیایی که در تصویر میبینید، سازگارند؟
نحوه تشخیص ویدیوی دیپ فیک
از سال ۲۰۱۴، این امکان برای افراد متبحر فراهمشده تا با بهرهگیری از فناوری هوش مصنوعی، ویدیوهای دیپفیک ایجاد کنند و با دستکاری ویدئوهای موجود از افراد، چهرههای مختلف را عوض کرده و حالات چهره جدیدی ایجاد کنند و صدای گفتاری جدیدی را تولید کنند.
همین موضوع باعث شده که تعداد زیادی از کلاهبرداران، هکرها و کاربران اینترنتی به تولید ویدیوهای دیپفیک بپردازند که در برخی از نمونهها، افراد مشهوری مثل تیلور سویفت و حتی افراد عادی، ناخواسته خودشان را در فیلمهای مستهجن، کلاهبرداریها و اطلاعات نادرست ببینند.
برای تشخیص ویدیوهای مشکوک، علاوه بر تکنیکهای ذکرشده برای تشخیص تصاویر جعلی هوش مصنوعی در بالا، میتوان از توصیههای محققان مؤسسه فناوری ماساچوست و دانشگاه نورث وسترن نیز بهره برد. هرچند که طبق گفته آنها هیچ روش تضمینیای برای این کار وجود ندارد.
شش اشتباه رایج در ویدیوهای تولیدی توسط هوش مصنوعی:
۱– حرکات دهان و لب: آیا در برخی لحظات ویدیو، تصویر و صدا بهطور کامل همگامسازی نمیشوند؟
۲– اشکالات آناتومیک: ممکن است صورت یا بدن عجیب به نظر رسیده یا حرکات غیرطبیعی داشته باشند.
۳– صورت: وجود ناهماهنگی در صافی صورت یا چینوچروکهای اطراف پیشانی و گونهها یا خالهای صورت نشان دیگری برای تشخیص فیک بودن ویدیو است.
۴– نورپردازی: اگر نورپردازی ناسازگار است و سایهها حرکاتی غیرعادی دارند، ممکن است ویدیو فیک باشد. درعینحال به چشمها، ابروها و عینک افراد توجه کنید.
۵– مو: آیا موها حالت عجیبی دارند تا به شیوه غیر نرمالی حرکت میکنند.
۶– پلک زدن: پلک زدن زیاد یا کم میتواند نشانهای از دیپ فیک باشد.
دسته جدیدتری از دیپفیکهای ویدیویی مبتنی بر مدلهای diffusion هستند که میتوانند ویدیوهایی را براساس پیامهای متنی توسط هوش مصنوعی ایجاد کنند و شرکتها در حال آزمایش و انتشار نسخههایی هستند که هرکسی میتواند بدون دانش فنی خاصی این کار را انجام دهد ولی تا امروز در ویدئوهای بهدستآمده، چهرهها مخدوش یا حرکات بدن عجیب هستند.
کمالی دراینباره گفته: «تشخیص ویدیوهای تولیدی با هوش مصنوعی، برای مردم آسانتر از عکسهای فیک است؛ چراکه درحرکت، فرصت تشخیص حرکات غیرطبیعی بیشتر خواهد بود.»
نحوه شناسایی رباتهای هوش مصنوعی
این روزها استفاده از رباتهای کامپیوتری در حسابهای رسانههای اجتماعی و پلتفرمهای پیامرسان رایج شده و بسیاری از این رباتها از فناوریهای هوش مصنوعی بهره میبرند. از این طریق تولید محتوا با هوش مصنوعی از طریق رباتهایی که برای موقعیتهای مختلف سفارشی ساخته میشوند، بسیار ارزان و آسان خواهد بود.
پل برنر از دانشگاه نوتردام دراینباره گفت: «سفارشی کردن مدلهای زبان بزرگ برای مخاطبان خاص، با پیامهای خاص آسانتر شده است.» او و همکارانش در تحقیقاتشان دریافتند که داوطلبان تنها در ۴۲% مواقع رباتهای مجهز به هوش مصنوعی را از انسان تشخیص میدهند؛ آنهم درحالیکه به شرکتکنندگان گفتهشده بود که با رباتها تعامل دارند.
پنج روش برای تشخیص ربات هوش مصنوعی در رسانههای اجتماعی
۱- استفاده زیاد از ایموجیها و هشتگها
۲- استفاده از عبارات غیرمتداول، انتخاب کلمات یا تشبیهات
۳- استفاده از عبارات تکراری با اشکال مشابه یا سفتوسخت؛ یا استفاده بیشازحد از برخی اصطلاحات عامیانه
۴- عدم آگاهی کامل: یعنی با پرسیدن چند سؤال، بهویژه درباره مکان یا موقعیتهای محلی، میتوانید متوجه عدم آگاهی یک ربات از یک موضوع آشکار شوید
۵- اگر یک حساب رسانه اجتماعی، یک مخاطب شخصی نیست و هویتش بهوضوح تأیید نشده، ممکن است یک ربات هوش مصنوعی باشد.
تشخیص دیپ فیک گفتاری
ابزارهای هوشمصنوعی، شبیهسازی صدا یا تولید صدای گفتاری جدید را آسان کرده و همین منجر به افزایش کلاهبرداریهای صوتی شده است که صدای اعضای خانواده، مدیران شرکت و رهبران سیاسی حتی جو بایدن را شبیهسازی میکند. شناسایی این موارد در مقایسه با ویدیوها یا تصاویر تولیدشده با هوش مصنوعی بسیار سختتر است.
ریچل توباک، یکی از بنیانگذاران SocialProof Security(یک سازمان هک کلاهسفید) دراینباره گفته: «متمایز کردن صدای واقعی و شبیهسازیشده، واقعاً چالشبرانگیز است، زیرا اجزای بصری خاصی برای حمایت از مغز ما در شناسایی در این زمینه وجود ندارد.»
تشخیص چنین دیپفیکهای صوتی هوش مصنوعی، بهویژه در تماسهای ویدیویی و تلفنی سختتر خواهد بود؛ اما در برخی مواقع باید برای تشخیص این موارد به عقل خود رجوع کنیم.
چهار مرحله تشخیص صدای جعلی تولیدشده با هوش مصنوعی
۱– شخصیتهای عمومی: اگر کلیپ صوتی مربوط به افراد مشهور است، بررسی کنید که آیا آنچه میگویند با آنچه در اخبار منتشرشده یا درباره دیدگاهها و رفتارهایشان به اشتراک گذاشتهشده ، مطابقت دارد یا خیر.
۲– به دنبال تناقض باشید: کلیپ صوتی را با کلیپهای ویدیویی یا صوتی تأیید شده قبلی که حاوی صدای همان شخص هستند، مقایسه کنید. آیا ناهماهنگی در صدای آنها یا رفتارهای گفتاری آنها وجود دارد؟
۳– سکوتهای ناخوشایند: اگر در حال گوش دادن به یک تماس تلفنی یا پست صوتی هستید و گوینده در حین صحبت کردن، مکثهای طولانی و غیرمعمولی دارد، ممکن است در آن از فناوری شبیهسازی صوتی مبتنی بر هوش مصنوعی استفادهشده باشد.
۴– عجیبوغریب: هرگونه الگوی گفتاری رباتیک یا شیوه صحبت غیرمعمول پرمخاطب میتواند نشاندهنده استفاده از ترکیبی از شبیهسازی صدا برای تقلید صدای یک فرد و یک مدل زبان بزرگ برای تولید عبارت دقیق باشد.
پیشرفت روزافزون فناوری
طبق آنچه گفته شد، هیچ قانون منسجمی برای تشخیص محتوای تولیدشده توسط هوش مصنوعی با محتوای واقعی انسانی وجود ندارد. مدلهای هوش مصنوعی مورداستفاده برای تولید متن، تصویر، ویدئو و صدا، دائماً در حال پیشرفت هستند و بهسرعت محتواهایی معتبر و بدون هیچگونه اشتباهات آشکاری تولید کنند.
توباک دراینباره گفت: «هوش مصنوعی عکسها، ویدیوها و صداها را بهسرعت و درزمانی کمتر از ۳۰ ثانیه دستکاری و تولید میکند. همین کار را برای افرادی که به دنبال فریب دادن مردم هستند راحت میکند تا خیلی سریع اطلاعات نادرست را توسط هوش مصنوعی تولید کرده و چند دقیقه بعد آنها را در شبکههای اجتماعی به اشتراک بگذارند.»
از همین رو بسیار مهم است که اطلاعات نادرست تولیدشده توسط هوش مصنوعی را بررسی کنید که سؤالات بیشتری بپرسید؛ درنهایت این اقدامات هم برای جلوگیری از آسیب کافی نخواهد بود و بهطورقطع موارد جعلی تشخیص داده نخواهد شد.