کدام چهره واقعی است؟
آیا میتوانید تفاوت بین یک چهره واقعی و ساخته شده توسط هوش مصنوعی را تشخیص دهید؟ همه چهرهها در عکس بالا قلابی هستند و توسط هوش مصنوعی ساخته شدهاند. در کمتر از چهار سال، استفاده از روشهای نوین هوش مصنوعی در شبیهسازی چهره آدمهای واقعی و دستکاری نمونههای مختلف سمعی و بصری، تحولات بزرگی داشته است. در گذشته استفاده از هوش مصنوعی به تبع یادگیری عمیق ماشینهای نرمافزاری، در جهت پیشبینی اطلاعات جدید بر حسب اطلاعات جمعآوری شده قدیمی صورت میگرفت. حال این یادگیری ماشین به درجهای رسیده است که میتواند مولد اطلاعات تصویری بیهمتا باشد و واقعی را از غیرواقعی تشخیص دهد. در این یادداشت فرصت بررسی تبعیضهای موجود در مسیر یادگیری ماشین و دسترسی به دانش این عرصه را نخواهیم داشت، ولی به معرفی نمونههای اخیر تولید تصاویر چهرههای ساختگی توسط هوش مصنوعی میپردازیم که میتواند تاثیر بزرگی بر پذیرش واقعیت از سوی عموم جامعه داشته باشد.
در ماه گذشته شاید اسم وبسایت ThisPersonDoesNotExist.com (این فرد وجود ندارد) به گوشتان خورده باشد که با استفاده از هوش مصنوعی، به طرز عجیبی چهرههای قلابی ولی واقعینما ایجاد میکند. به تبع آن، یک وبسایت دیگر هم بوجود آمد: WhichFaceIsReal.com (کدام چهره واقعی است) که این امکان را به شما میدهد توانایی خود برای تمایز بین یک چهره کاملا واقعی و یک چهره قلابی ساخته شده توسط هوش مصنوعی را آزمایش کنید.
اگرچه WhichFaceIsReal.com هدف بالاتری دارد. این وبسایت توسط دو پژوهشگر از دانشگاه واشنگتن، جوین وست و کارل برگستورم، ساخته شده است، که هر دو درباره چگونگی گسترش اطلاعات در جامعه تحقیق میکنند. آنها فکر میکنند بوجود آمدن قلابیهای ساخته هوش مصنوعی میتواند مشکلساز باشد و اعتماد جامعه بر شواهد را زیر سوال ببرد، و میخواهند در راستای آموزش عموم در این باره تلاش کنند.
وست میگوید: «تلاش ما برای آموزش عموم جامعه و آگاهسازی مردم از وجود این تکنولوژی است، همانطور که بالاخره اکثر مردم آگاه شدند یک تصویر میتواند فتوشاپ شود.»
هر دو وبسایت از یک روش یادگیری ماشین به نام «گان» (GAN: generative adversarial network) یا شبکه مولد هماورد برای تولید تصاویر قلابی استفاده میکنند. این شبکهها با تدقیق در انبارهای عظیم داده (در این مورد، تعداد زیادی پرتره آدمهای واقعی) الگوهای موجود در آنها را یاد میگیرند، و سپس آن چیزی را که دیدهاند تکثیر میکنند.
دلیل اینکه گانها خیلی خوب هستند این است که خودشان را محک میزنند. یک بخش از شبکه، چهرهها را بوجود میآورد، و بخش دیگر، آنها را با داده آموزشی مقایسه میکند. اگر این بخش بتواند تفاوت را تشخیص دهد، چهره بوجود آمده دوباره به بخش رسم برمیگردد تا کارش را بهتر کند. به عنوان مثال یک معلم هنر سختگیر را در نظر بگیرید که اجازه ترک کلاس را به شما نمیدهد تا شما تعداد چشمهای درستی را روی پرتره ذغالی خود ترسیم کنید. صحبت از پیکاسوهای هوش مصنوعی نیست، فقط واقعگرایی در میان است.
با وجود چهرههای ساختهشده توسط هوش مصنوعی، برگستورم و وست درباره استفاده مخرب آنها در گسترش اطلاعات غلط بعد از یک حمله تروریستی هشدار میدهند. به عنوان مثال، هوش مصنوعی میتواند یک مجرم قلابی را بوجود آورد که در شبکههای اجتماعی منتشر و پخش میشود.
در این موارد خبرنگاران معمولا سعی میکنند تصدیق منبع یک تصویر را توسط ابزارهایی مانند جستجوی تصویری معکوس گوگل انجام دهند. ولی این کار در مورد قلابی هوش مصنوعی جواب نمیدهد. برگستورم میگوید: «اگر شخصی به عنوان مظنون در موقعیتی با اطلاعات غلط معرفی شود و تصویری از او انتشار یابد که اصلا وجود خارجی ندارد؟ فقط به سختی ردیابی آن فکر کنید.»
پژوهشگران و افراد دانشگاهی در حال توسعه ابزارهای متنوعی هستند که بتوانند قلابیهای عمیق را تشخیص دهند. تعدادی وجود دارند که شامل چهرههای نامتقارن، دندانهای دارای انحراف، موهای غیرواقعی و گوشهایی که اصلا شبیه گوش نیستند.
ولی این قلابیها بیشتر پیشرفت خواهند کرد. تا سه سال دیگر که اصلا قابل تشخیص و تمایز نخواهند بود. و وقتی این اتفاق بیافتد، دانستن نیمی از کارزار است. برگستورم میگوید: «پیغام ما مشخصا این نیست که مردم نباید هیچ چیز را باور کنند. پیغام ما برعکس آن است: زودباور نباشید.»