جعل در سینما و موسیقی با هوش مصنوعی / برای سرگرمی به جایی برده میشوید که با پای خودتان نرفتید_آینده
به گزارش آینده
به تعبیر یک نوجوان ایرانی نهایت منفعت گیری ما از هوش مصنوعی شده است پیروی صدای هایده. این تعبیر تلخ از قضا درست است. آن هم در شرایطی که در کشورهای دیگر پیشرفت هوش مصنوعی در حوزههای گوناگون زندگی قابل دقت است.
به اختصاصی در چند سال تازه منفعت گیری بیقاعده و فقطً سرگرم کننده هوش مصنوعی موجی از محتواهای غیرواقعی را در فضای مجازی جابه جا میکند. به طوریکه شما به سادگی میتوانید به تصاویر، صداها و اتفاقات شخصی زندگی بازیگران و خوانندگان برسید.
جعل چهره و صدای بازیگران
در قابلیتهای تازه هوش مصنوعی میتوان تصاویر، فیلمها و صداهایی جعلی ساخت. چالشهایی که علتشکلگیری کلمه «جعل عمیق» در دسته اخبار جعلی یا Fake Newsها شده است.
در «جعل عمیق» با منفعت گیری از عکس یا صدای افراد، نسخهای جعلی میسازند و صدایی را تشکیل میکنند که هیچ زمان آن فرد به زبان نیاورده و یا ویدیو و عکسی از او میسازند که فرد هیچ زمان در آن وجود نداشته است. به طور کلی تشکیل محتوای جعلی برای افراد مشکلآفرین است، اما صوت و عکس، بیشتر از متون نوشتاری دست به دست میشود و حتی افرادی که حوصله خواندن متنها را ندارند، به راحتی وقتی را به دیدن و شنیدن دیگر محتواهای جعلی تعلق خواهند داد و این محتوا ماندگاری بیشتری هم در اذهان عمومی دارند.
از سویی دست به دست شدن و انتشار کردن در حجم گسترده جهت میشود که هیچگاه این محتواها به طور کامل از بین نروند و با یک جستجوی ساده بتوان به آنها رسید.
به گفتن مثال انتشار کردن عکس جعل شده احسان علیخانی در کنار مهلقا باقری و این چنین دستکاری تصاویر الناز شاکردوست بر تخت بیمارستان و گذاشتن چهره ترانه علیدوستی به جای او، آن هم درست در روزهایی که خبر بستری شدن این بازیگر در بیمارستان دست به دست میشد، مثالهایی از منفعت گیری زرد از هوش مصنوعی است. موضوعی که احسان علیخانی را وادار کرد تا با انتشار کردن یک استوری در صفحه اینستاگرام خود نسبت به آن عکس العمل نشان دهد و بنویسد: «عاشق انگیزه و دلِ خوش این رفقا هستم و عشقُ حال تازه، وسط این اوضاع احوال، عکس ادیت میکنن، عکس مهم و هنرمندانه فتوشاپ و پخش میکنن، کلی پیج و خبرگزاری هم انتشار میکنن و منم باید جواب کلی آدم بدم که: نه بابا من نیستم ادیت شدهام. حداقل بگین ادیت کردین پدر جان. من این دوست گرامی نمیشناسم که یکی تلاش کرده بشه من».
این چنین منفعت گیری نامناسب از چهره و صدای خسرو شکیبایی در مراسم افتتاحیه جشنواره فیلم فجر جهت شد خانواده خسرو شکیبایی از نحوه همانندسازی این هنرمند فقید انتقاد کنند.
پوریا شکیبایی پسر زنده یاد خسرو شکیبایی با انتشار کردن ویدیویی در فضای مجازی فرمود که برای ناراحتی زیاد مادرش مطلب اعتراضی را انتشار کرده و او گفت که بهتر می بود در تشکیل این چنین محتوایی صداقت در کلام و معرفت در امانتداری مراعات میشد.
او این چنین اشاره کرده که با خودش و مادرش در خصوص این محتوا هیچ تماسی گرفته نشده و احتمالا اگر این اتفاق میافتاد پشتیبانی بهتری برای خلق یک تاثییر مقبولتر صورت میگرفت.
چطور تشخیص دهیم اثری جعلی است؟
هرچند از پیروی صدایهایده و پاشایی گرفته تا تحول چهره بازیگران زن و مرد ایرانی به کررات دیده میشود اما با اهمیت ترین صدمه منفعت گیری نادرست از هوش مصنوعی صدمه زدن به حریم خصوصی و خدشه به شخصیت هنری و اجتماعی این افراد است.
افرادی برای سرگرمی محتوایی از وجود فلان فرد در فلان مکان تشکیل میکنند که هیچگاه با پای خود به آنجا نرفته است.
با این وجود هوش مصنوعی ابزار تولیدی انسان است و میتوان با بازدید محتوا در زیاد تر اوقات پی به جعلی بودن آن برد. از جمله میتوانید از روشهایی که ذکر آن میرود منفعت گیری کنید.
۱-بزرگنمایی کرده و با دقت نگاه کنید
تعداد بسیاری از تصاویر تشکیل شده توسط هوش مصنوعی در نگاه اول واقعی به نظر میرسند.
به همین علت اولین نظر ما این است که به عکس دقت کنید. برای انجام این کار عکس را با بیشترین وضوح ممکن جستجو کنید و سپس روی جزئیات زوم کنید. بزرگ کردن عکس ناهماهنگیها و اشتباههایی را مشخص می کند که امکان پذیر در نگاه اول شناسایی نشده باشند.
۲-منبع عکس را اشکار کنید
اگر یقین نیستید که یک عکس واقعی است یا توسط هوش مصنوعی تشکیل شده تلاش کنید منبع آن را اشکار کنید.
با خواندن نظرات انتشار شده توسط دیگر کاربران در زیر عکس امکان پذیر بتوانید اطلاعاتی در رابطه جایی که عکس برای اولین بار پست شده را مشاهده کنید یا امکان پذیر یک جستجوی عکس معکوس انجام دهید. برای انجام این کار عکس را در ابزارهایی همانند Google Image Reverse Search، TinEye یا Yandex آپلود کنید و امکان پذیر منبع مهم عکس را اشکار کنید. نتایج این جستجوها هم این چنین امکان پذیر پیوندهایی را به بازدید حقیقت انجام شده توسط رسانههای معتبر نشان دهد.
۳-به تناسب بدن دقت کنید
آیا افراد عکس شده دارای تناسب اندام صحیحی می باشند؟ این غیرمعمول نیست که تصاویر تشکیل شده توسط هوش مصنوعی در رابطه با تناسبها تفاوتهایی را نشان دهند. امکان پذیر دستها زیاد کوچک یا انگشتان زیاد بلند باشند یا آن که سر و پا با بقیه بدن مطابقت ندارند. برای مثال، در تصویری جعلی این گونه نشان داده شده که پوتین در برابر شی زانو زده است. با این وجود، با دقت به عکس میتوان مشاهده کرد که کفش فرد زانو زده به طور نامتناسبی بزرگ و پهن است. گوشها نیز دراز به نظر میرسند. سر نیمه پوشیده نیز زیاد بزرگ است و با دیگر اندامهای بدن تناسبی ندارد.
۴-مواظب اشتباههای معمول هوش مصنوعی باشید
دستها اکنون منبع مهم اشتباهها در برنامههای عکس هوش مصنوعی همانند Mid journey یا DALL-E می باشند. برای مثال در تصویری که ازپوتین انتشار شد مامور پلیسی که در سمت چپ اوست انگشت ششم دارد! هم این چنین در عکس انتشار شده از پاپ فرانسیس که جعلی است او تنها چهار انگشت درست در عکس دارد و انگشتان او در سمت چپ به نحوه غیر عادی بلند به نظر میرسند. این عکسها جعلی می باشند.
دیگر اشتباههای رایج در تصاویر تشکیل شده توسط هوش مصنوعی شامل افرادی با دندانهای زیاد زیاد می باشند. هم این چنین، فریم عینکهایی که به نحوه عجیبی تحول شکل اشکار کرده اند که در تصاویر تشکیل شده توسط هوش مصنوعی دیده خواهد شد. هم این چنین، در تعداد بسیاری از این تصاویر گوشها اشکال غیر واقعی دارند همانند عکس جعلی از شی و پوتین. هم این چنین، سطوحی همانند گوشههای کلاه ایمنی برای برنامههای مبتنی بر هوش مصنوعی مشکلاتی تشکیل میکنند و بعضی اوقات اوقات عکس از هم پاشیده به نظر میرسد همانند آن چه در عکس بازداشت ادعایی پوتین دیده میشود.
با این وجود، هنری آژدر متخصص هوش مصنوعی هشدار میدهد که نسخههای جدیدتر برنامههایی همانند Mid journey در به عکس کشیدن دستها بهتر عمل میکنند. این بدان معناست که کاربران نمی توانند در بلند زمان روی تشخیص این نوع اشتباهات حساب باز کنند.
۵-آیا عکس مصنوعی و صاف به نظر میرسند؟
برنامه Mid journey به طور خاص تصاویر تعداد بسیاری را تشکیل میکند که برای واقعی بودن بیشتر از حد خوب به نظر میرسند. حس درونی خود را در اینجا جستوجو کنید: آیا این چنین عکس کاملی با افراد بی عیب و نقص واقعا میتواند واقعی باشد؟ آندریاس دنگل از مرکز تحقیقات هوش مصنوعی آلمان به حرف های است: چهرهها زیاد خالص می باشند و لباسهایی که نشان داده خواهد شد نیز زیاد هماهنگ میباشند. پوست افراد در تعداد بسیاری از تصاویر هوش مصنوعی زیاد تر صاف و عاری از هرگونه سوزش است و حتی موها و دندانهای آنان بی عیب و نقص است. این موارد طبق معمول در زندگی واقعی صدق نمیکنند.
تعداد بسیاری از تصاویر نیز دارای ظاهری هنرمندانه، براق و پر زرق و برق می باشند که حتی عکاسان حرفهای نیز در عکاسی استودیویی برای دستیابی به آن مشکل دارند. زیاد تر به نظر میرسد ابزارهای مبتنی بر هوش مصنوعی تصاویر ایدهآلی را طراحی میکنند که قرار است بی نقص باشند و تا آنجا که امکان پذیر انسانها را خوشحال کنند.
۶-بعد عرصه را بازدید کنید
بعد عرصه یک عکس زیاد تر میتواند نشان دهد که آیا دستکاری شده است یا خیر.
در اینجا نیز اجسام میتوانند تحول شکل یافته به نظر برسند. برای مثال، به چراغهای خیابان دقت کنید. در موارد معدودی برنامههای هوش مصنوعی افراد و اشیاء را همانند سازی کرده و دو بار از آنان در یک عکس منفعت گیری میکند و غیر معمول نیست که بعدعرصه تصاویر هوش مصنوعی محو شود. اما حتی این تاری میتواند حاوی اشتباه باشد یک بعد عرصه به طور مصنوعی تار به نظر میرسد.
در نتیجه، تعداد بسیاری از تصاویر تشکیل شده توسط هوش مصنوعی اکنون تا این مدت با قدری تحقیق قابل حذف می باشند. با این وجود، فناوری در حال بهتر شدن است و به گمان زیاد این اشتباهات در آینده نادرتر خواهد شد.
فرد متضرر به کجا پناه ببرد؟
تا این مدت قوانین مربوط به هوش مصنوعی در ایران قابلیت شکایت و پیگیری از سوی فرد متضرر را ندارد. به اختصاصی که در زیاد تر اوقات هویت تشکیل کننده محتوا نامشخص است.
این در حالی است که بریتانیا، اتحادیه اروپا و آمریکا از سالها قبل تدوین و طراحی قوانینی در خصوص هوش مصنوعی را الزامی دیده و اغاز کردهاند.پیش از این از سوی معاونت علمی، فناوری و اقتصاد دانشبنیان رئیس جمهور اظهار شده که نوشته مطالعات تطبیقی قوانین هوش مصنوعی دنیا در ایران اغاز شده است. هر چند فعلاً از خروجی کار خبری نیست.
امروز اگر عکس جعلی شما در کنار افرادی که نمیشناسید در فضای مجازی دست به دست شود، عملاً قادر به مهار آن نیستید و آیا این چنین اتفاق مخرب فرهنگی به قدر کافی هراسآلود نیست که در خصوص ساز و کار قانونی آن اندیشیده شود؟
دسته بندی مطالب
اخبار کسب وکارها
منبع