آیا آماده‌ایم در دنیایی زندگی کنیم که دیگر نتوانیم واقعی را از غیرواقعی تشخیص دهیم؟

مهسا زحمتکش
شنبه ۱۵ دی ۱۴۰۳ - ۱۱:۵۴
بالاخره واقعیه یا کیکه؟

در روزهای اخیر احتمالا ویدیوهای دموئی از سورا، ابزار تولید ویدئوی OpenAI را دیده‌اید. این تکنولوژی به‌شدت پیشرفته است، اما همین پیشرفت برای آینده نگران کننده است. این فناوری مشابه تولیدکننده‌های متن یا تصویر با هوش مصنوعی کار می‌کند: شما یک درخواست می‌نویسید و سیستم یک کلیپ ویدئویی کوتاه برایتان تولید می‌کند. مثلا در دمو، نماینده OpenAI از سورا خواست ویدئویی از یک قورباغه در جنگل‌های آمازون به سبک مستندهای طبیعت بسازد. نتیجه حیرت‌انگیز بود: تصاویر دوربین از بالا جنگل را نشان می‌دادند و سپس روی قورباغه‌ای که روی شاخه نشسته بود، زوم می‌کردند. قورباغه آن‌قدر واقعی به نظر می‌رسید که انگار از دل یک مستند بیرون آمده است. 


اما در عین این دستاورد فنی، وقتی قورباغه را تماشا می‌کنیم، به‌جای شگفتی، احساس ناخوشایندی به انسان دست می‌دهد. آنچه می‌بینیم، واقعی نیست و این را می‌دانیم.


قورباغه، شاخه‌ای که به آن چسبیده بود، و جنگلی که در آن زندگی می‌کرد، همگی غیرواقعی بودند و هرگز وجود نداشتند. صحنه‌ای که به تصویر کشیده شده بود، اگرچه از لحاظ بصری چشمگیر بود، اما خالی و بی‌روح به نظر می‌رسید.
حتی امکان جعل ویدئوهای کم‌اهمیت هم نگران‌کننده است. اگر یک ویدئو از یک سیاستمدار با رفتاری بسیار عجیب ببینید، ممکن است به آن شک کنید. اما اگر یک کلیپ خنده‌دار در اینستاگرام یا یک ویدئوی بانمک از حیوانات در فیسبوک ببینید، چه؟ این فکر که حتی ساده‌ترین محتواها نیز ممکن است جعلی باشند، می‌تواند زندگی را کسل‌کننده و بی‌روح کند.

ویدئو، مرز جدید هوش مصنوعی:

 آیا آماده‌ایم دنیایی را بپذیریم که تشخیص واقعی از جعلی در آن غیرممکن است؟


پس از معرفی ابزار «سورا» توسط OpenAI در آمریکا و ابزار تولید ویدئوی «مووی جن» توسط متا، و همچنین رونمایی از ابزار «ویئو» گوگل برای برخی کاربران، دنیای هوش مصنوعی در تولید ویدئو وارد مرحله جدیدی شده است. اما این سؤال مطرح می‌شود: آیا ما آماده‌ایم در دنیایی زندگی کنیم که دیگر نتوانیم تشخیص دهیم تصاویر متحرکی که می‌بینیم واقعی هستند یا ساختگی؟

در چند سال اخیر شاهد رشد ابزارهای تولید متن و تصویر با هوش مصنوعی بوده‌ایم، اما تولید ویدئو به‌نظر می‌رسد حساسیت بیشتری داشته باشد. تصاویر متحرک، برخلاف تصاویر ثابت، همیشه سخت‌تر جعل می‌شدند، اما هوش مصنوعی در حال تغییر این معادله است. این فناوری خطرات بالقوه زیادی دارد. برای مثال، کلاهبرداران با استفاده از هوش مصنوعی، صدای دوستان یا اعضای خانواده را جعل می‌کنند تا از افراد پول بگیرند. فعالان سیاسی از «دیپ‌فیک» برای تبلیغ اهداف خود بهره می‌برند. شاهد اینفلوئنسرهای ساخته شده با  هوش مصنوعی ویدیوساز Veo 2 گوگل هستیم که کالایی را معرفی می‌کنند. حتی سوءاستفاده‌گران می‌توانند تصاویر یا ویدئوهای جنسی جعلی از قربانیان خود بسازند. برخی محققان امنیتی توصیه می‌کنند خانواده‌ها برای مواقع اضطراری کلمه رمزی داشته باشند تا بتوانند هویت خود را اثبات کنند.

سازندگان این ابزارها از خطرات آگاه هستند. مثلاً OpenAI قبل از انتشار عمومی، فقط دسترسی محدودی به برخی کاربران خلاق و آزمایشی داد. متا نیز همین رویکرد را اتخاذ کرده است. این ابزارها شامل تدابیر امنیتی مختلفی هستند، مانند محدودیت در نوع درخواست‌ها (برای جلوگیری از تولید ویدئوهایی با چهره افراد مشهور یا محتوای خشونت‌آمیز یا جنسی) و استفاده از واترمارک برای نشان دادن اینکه ویدئو توسط هوش مصنوعی تولید شده است.

با این حال، حتی امکان جعل ویدئوهای کم‌اهمیت هم نگران‌کننده است. اگر یک ویدئو از یک سیاستمدار با رفتاری بسیار عجیب ببینید، ممکن است به آن شک کنید. اما اگر یک کلیپ خنده‌دار در اینستاگرام یا یک ویدئوی بانمک از حیوانات در فیسبوک ببینید، چه؟ این فکر که حتی ساده‌ترین محتواها نیز ممکن است جعلی باشند، می‌تواند زندگی را کسل‌کننده و بی‌روح کند.

وقتی ویدئوی قورباغه‌ای که سورا ساخته بود را دیدم، به این فکر افتادم که هدف از چنین چیزی چیست؟ شاید این فناوری در تولید جلوه‌های ویژه سینمایی مفید باشد، اما مستند طبیعت جعلی؟ مستندهای طبیعت ما را به دنیایی می‌برند که نمی‌توانیم آن را ببینیم، و بخشی از جذابیت آنها، دشواری ثبت تصاویر است. مثلاً پشت‌صحنه‌های مستندها نشان می‌دهند که فیلمبرداران برای ثبت یک صحنه خاص چه سختی‌هایی کشیده‌اند. اما هوش مصنوعی هیچ‌وقت نمی‌تواند چنین اصالت و تلاشی را بازتاب دهد، چون صرفاً بر اساس محتوای موجود آموزش دیده است.

ممکن است بگویید که مهم نیست یک ویدئو چگونه ساخته شده است؛ قورباغه، قورباغه است. اما چیزی که آزاردهنده است، ذات فریبنده محتوای هوش مصنوعی است. حتی تارترین عکس واقعی هم زندگی بیشتری در خود دارد نسبت به ویدئوی بی‌روحی که با هوش مصنوعی ساخته شده است.

هرچه محتوای هوش مصنوعی واقعی‌تر به نظر برسد، خطر بی‌اعتبار شدن عکس‌ها و ویدئوهای واقعی هم بیشتر می‌شود. دیگر نمی‌توانیم به آنچه می‌بینیم اعتماد کنیم و مجبوریم برای تشخیص واقعی بودن چیزها، مثل یک کارآگاه عمل کنیم. مثلاً وقتی یک ویدئوی بانمک از خرگوشی که کاهو می‌خورد در اینستاگرام دیدم و آن را با همسرم به اشتراک گذاشتم، او پرسید: «این واقعیه یا ساختگی؟» نمی‌توانستم جواب بدهم. حتی پرسیدن این سؤال هم از لذت لحظه کم کرد. در دنیایی که هر چیزی می‌تواند جعلی باشد، انگار همه چیز جعلی است.

https://www.theguardian.com/commentisfree/2024/dec/10/ai-openai-sora-video-new-frontier


پیام شما به ما

شما در حال پاسخ به نظر «» هستید.
captcha

پربازدیدها

پربحث‌ها