ففف

جعل در سینما و موسیقی با هوش مصنوعی / برای سرگرمی ‌به جایی برده می‌شوید که با پای خودتان نرفتید_آینده


به گزارش آینده

به تعبیر یک نوجوان ایرانی نهایت منفعت گیری ما از هوش مصنوعی شده است پیروی صدای ‌هایده. این تعبیر تلخ از قضا درست است. آن هم در شرایطی که در کشورهای دیگر پیشرفت هوش مصنوعی در حوزه‌های گوناگون زندگی قابل دقت است.

به اختصاصی در چند سال تازه منفعت گیری بی‌قاعده و فقطً سرگرم کننده هوش مصنوعی موجی از محتواهای غیرواقعی را در فضای مجازی جابه جا می‌کند. به طوریکه شما به سادگی می‌توانید به تصاویر، صداها و اتفاقات شخصی زندگی بازیگران و خوانندگان برسید.

جعل چهره و صدای بازیگران

در قابلیت‌های تازه هوش مصنوعی می‌توان تصاویر، فیلم‌ها و صداهایی جعلی ساخت. چالش‌هایی که علتشکل‌گیری کلمه «جعل عمیق» در دسته اخبار جعلی یا Fake Newsها شده است.

در «جعل عمیق» با منفعت گیری از عکس یا صدای افراد، نسخه‌ای جعلی می‌سازند و صدایی را تشکیل می‌کنند که هیچ زمان آن فرد به زبان نیاورده و یا ویدیو و عکسی از او می‌سازند که فرد هیچ زمان در آن وجود نداشته است. به طور کلی تشکیل محتوای جعلی برای افراد مشکل‌آفرین است،‌ اما صوت و عکس، بیشتر از متون نوشتاری دست به دست می‌شود و حتی افرادی که حوصله خواندن متن‌ها را ندارند، به راحتی وقتی را به دیدن و شنیدن دیگر محتواهای جعلی تعلق خواهند داد و این محتوا ماندگاری بیشتری هم در اذهان عمومی ‌دارند.

 از سویی دست به دست شدن و انتشار کردن در حجم گسترده جهت می‌شود که هیچگاه این محتواها به طور کامل از بین نروند و با یک جستجوی ساده بتوان به آن‌ها رسید.

به گفتن مثال انتشار کردن عکس جعل شده احسان علیخانی در کنار مه‌لقا باقری و این چنین دستکاری تصاویر الناز شاکردوست بر تخت بیمارستان و گذاشتن چهره ترانه علیدوستی به جای او، آن هم درست در روزهایی که خبر بستری شدن این بازیگر در بیمارستان دست به دست می‌شد، مثالهایی از منفعت گیری زرد از هوش مصنوعی است. موضوعی که احسان علیخانی را وادار کرد تا با انتشار کردن یک استوری در صفحه اینستاگرام خود نسبت به آن عکس العمل نشان دهد و بنویسد: «عاشق انگیزه و دلِ خوش این رفقا هستم و عشقُ حال تازه، وسط این اوضاع احوال، عکس ادیت می‌کنن، عکس مهم و هنرمندانه فتوشاپ و پخش می‌کنن، کلی پیج و خبرگزاری هم انتشار می‌کنن و منم باید جواب کلی آدم بدم که: نه بابا من نیستم ادیت شده‌ام. حداقل بگین ادیت کردین پدر جان. من این دوست گرامی نمی‌شناسم که یکی تلاش کرده بشه من».

این چنین منفعت گیری نامناسب از چهره و صدای خسرو شکیبایی در مراسم افتتاحیه جشنواره فیلم فجر جهت شد خانواده خسرو شکیبایی از نحوه همانند‌سازی این هنرمند فقید انتقاد کنند.

پوریا شکیبایی پسر زنده یاد خسرو شکیبایی با انتشار کردن ویدیویی در فضای مجازی فرمود که برای ناراحتی زیاد مادرش مطلب اعتراضی را انتشار کرده و  او گفت که بهتر می بود در تشکیل این چنین محتوایی صداقت در کلام و معرفت در امانتداری مراعات می‌شد.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ وهنر و گردشگری را در آینده دنبال کنید.

او این چنین اشاره کرده که با خودش و مادرش در خصوص این محتوا هیچ تماسی گرفته نشده و احتمالا اگر این اتفاق می‌افتاد پشتیبانی بهتری برای خلق یک تاثییر مقبول‌تر صورت می‌گرفت.

چطور تشخیص دهیم اثری جعلی است؟

هرچند از پیروی صدای‌هایده و پاشایی گرفته تا تحول چهره بازیگران زن و مرد ایرانی به کررات دیده می‌شود اما با اهمیت ترین صدمه منفعت گیری نادرست از هوش مصنوعی صدمه زدن به حریم خصوصی و خدشه به شخصیت هنری و اجتماعی این افراد است.

افرادی برای سرگرمی‌ محتوایی از وجود فلان فرد در فلان مکان تشکیل می‌کنند که هیچگاه با پای خود به آنجا نرفته است.

با این وجود هوش مصنوعی ابزار تولیدی انسان است و می‌توان با بازدید محتوا در زیاد تر اوقات پی به جعلی بودن آن برد. از جمله می‌توانید از روشهایی که ذکر آن می‌رود منفعت گیری کنید.

۱-بزرگنمایی کرده و با دقت نگاه کنید

تعداد بسیاری از تصاویر تشکیل شده توسط هوش مصنوعی در نگاه اول واقعی به نظر می‌رسند.

به همین علت اولین نظر ما این است که به عکس دقت کنید. برای انجام این کار عکس را با بیشترین وضوح ممکن جستجو کنید و سپس روی جزئیات زوم کنید. بزرگ کردن عکس ناهماهنگی‌ها و اشتباه‌هایی را مشخص می کند که امکان پذیر در نگاه اول شناسایی نشده باشند.

 

۲-منبع عکس را اشکار کنید

اگر یقین نیستید که یک عکس واقعی است یا توسط هوش مصنوعی تشکیل شده تلاش کنید منبع آن را اشکار کنید.

با خواندن نظرات انتشار شده توسط دیگر کاربران در زیر عکس امکان پذیر بتوانید اطلاعاتی در رابطه جایی که عکس برای اولین بار پست شده را مشاهده کنید یا امکان پذیر یک جستجوی عکس معکوس انجام دهید. برای انجام این کار عکس را در ابزار‌هایی همانند Google Image Reverse Search، TinEye یا Yandex آپلود کنید و امکان پذیر منبع مهم عکس را اشکار کنید. نتایج این جستجو‌ها هم این چنین امکان پذیر پیوند‌هایی را به بازدید حقیقت انجام شده توسط رسانه‌های معتبر نشان دهد.

 

۳-به تناسب بدن دقت کنید

آیا افراد عکس شده دارای تناسب اندام صحیحی می باشند؟ این غیرمعمول نیست که تصاویر تشکیل شده توسط هوش مصنوعی در رابطه با تناسب‌ها تفاوت‌هایی را نشان دهند. امکان پذیر دست‌ها زیاد کوچک یا انگشتان زیاد بلند باشند یا آن که سر و پا با بقیه بدن مطابقت ندارند. برای مثال، در تصویری جعلی این گونه نشان داده شده که پوتین در برابر شی زانو زده است. با این وجود، با دقت به عکس می‌توان مشاهده کرد که کفش فرد زانو زده به طور نامتناسبی بزرگ و پهن است. گوش‌ها نیز دراز به نظر می‌رسند. سر نیمه پوشیده نیز زیاد بزرگ است و با دیگر اندام‌های بدن تناسبی ندارد.

 

۴-مواظب اشتباه‌های معمول هوش مصنوعی باشید

دست‌ها اکنون منبع مهم اشتباه‌ها در برنامه‌های عکس هوش مصنوعی همانند Mid journey یا DALL-E می باشند. برای مثال در تصویری که ازپوتین انتشار شد مامور پلیسی که در سمت چپ اوست انگشت ششم دارد! هم این چنین در عکس انتشار شده از پاپ فرانسیس که جعلی است او تنها چهار انگشت درست در عکس دارد و انگشتان او در سمت چپ به نحوه غیر عادی بلند به نظر می‌رسند. این عکس‌ها جعلی می باشند.

دیگر اشتباه‌های رایج در تصاویر تشکیل شده توسط هوش مصنوعی شامل افرادی با دندان‌های زیاد زیاد می باشند. هم این چنین، فریم عینک‌هایی که به نحوه عجیبی تحول شکل اشکار کرده اند که در تصاویر تشکیل شده توسط هوش مصنوعی دیده خواهد شد. هم این چنین، در تعداد بسیاری از این تصاویر گوش‌ها اشکال غیر واقعی دارند همانند عکس جعلی از شی و پوتین. هم این چنین، سطوحی همانند گوشه‌های کلاه ایمنی برای برنامه‌های مبتنی بر هوش مصنوعی مشکلاتی تشکیل می‌کنند و بعضی اوقات اوقات عکس از هم پاشیده به نظر می‌رسد همانند آن چه در عکس بازداشت ادعایی پوتین دیده می‌شود.

1819816_363

با این وجود، هنری آژدر متخصص هوش مصنوعی هشدار می‌دهد که نسخه‌های جدیدتر برنامه‌هایی همانند Mid journey در به عکس کشیدن دست‌ها بهتر عمل می‌کنند. این بدان معناست که کاربران نمی توانند در بلند زمان روی تشخیص این نوع اشتباهات حساب باز کنند.

 

۵-آیا عکس مصنوعی و صاف به نظر می‌رسند؟

برنامه Mid journey به طور خاص تصاویر تعداد بسیاری را تشکیل می‌کند که برای واقعی بودن بیشتر از حد خوب به نظر می‌رسند. حس درونی خود را در اینجا جستوجو کنید: آیا این چنین عکس کاملی با افراد بی عیب و نقص واقعا می‌تواند واقعی باشد؟ آندریاس دنگل از مرکز تحقیقات هوش مصنوعی آلمان به حرف های است: چهره‌ها زیاد خالص می باشند و لباس‌هایی که نشان داده خواهد شد نیز زیاد هماهنگ می‌باشند. پوست افراد در تعداد بسیاری از تصاویر هوش مصنوعی زیاد تر صاف و عاری از هرگونه سوزش است و حتی مو‌ها و دندان‌های آنان بی عیب و نقص است. این موارد طبق معمول در زندگی واقعی صدق نمی‌کنند.

تعداد بسیاری از تصاویر نیز دارای ظاهری هنرمندانه، براق و پر زرق و برق می باشند که حتی عکاسان حرفه‌ای نیز در عکاسی استودیویی برای دستیابی به آن مشکل دارند. زیاد تر به نظر می‌رسد ابزار‌های مبتنی بر هوش مصنوعی تصاویر ایده‌آلی را طراحی می‌کنند که قرار است بی نقص باشند و تا آنجا که امکان پذیر انسان‌ها را خوشحال کنند.

 

۶-بعد عرصه را بازدید کنید

بعد عرصه یک عکس زیاد تر می‌تواند نشان دهد که آیا دستکاری شده است یا خیر.

در اینجا نیز اجسام می‌توانند تحول شکل یافته به نظر برسند. برای مثال، به چراغ‌های خیابان دقت کنید. در موارد معدودی برنامه‌های هوش مصنوعی افراد و اشیاء را همانند سازی کرده و دو بار از آنان در یک عکس منفعت گیری می‌کند و غیر معمول نیست که بعد‌عرصه تصاویر هوش مصنوعی محو شود. اما حتی این تاری می‌تواند حاوی اشتباه باشد یک بعد عرصه به طور مصنوعی تار به نظر می‌رسد.

در نتیجه، تعداد بسیاری از تصاویر تشکیل شده توسط هوش مصنوعی اکنون تا این مدت با قدری تحقیق قابل حذف می باشند. با این وجود، فناوری در حال بهتر شدن است و به گمان زیاد این اشتباهات در آینده نادرتر خواهد شد.

فرد متضرر به کجا پناه ببرد؟

تا این مدت قوانین مربوط به هوش مصنوعی در ایران قابلیت شکایت و پیگیری از سوی فرد متضرر را ندارد. به اختصاصی که در زیاد تر اوقات هویت تشکیل کننده محتوا نامشخص است.

این در حالی است که بریتانیا، اتحادیه اروپا و آمریکا از سال‌ها قبل تدوین و طراحی قوانینی در خصوص هوش مصنوعی را الزامی دیده و اغاز کرده‌اند.پیش از این از سوی معاونت علمی، فناوری و اقتصاد دانش‌بنیان رئیس جمهور اظهار شده که نوشته مطالعات تطبیقی قوانین هوش مصنوعی دنیا در ایران اغاز شده است. هر چند فعلاً از خروجی کار خبری نیست.

امروز اگر عکس جعلی شما در کنار افرادی که نمی‌شناسید در فضای مجازی دست به دست شود، عملاً قادر به مهار آن نیستید و آیا این چنین اتفاق مخرب فرهنگی به قدر کافی هراس‌آلود نیست که در خصوص ساز و کار قانونی آن اندیشیده شود؟

دسته بندی مطالب
اخبار کسب وکارها

خبرهای ورزشی

خبرهای اقتصادی

اخبار فرهنگی

اخبار تکنولوژی

اخبار پزشکی



منبع