در روزهای اخیر احتمالا ویدیوهای دموئی از سورا، ابزار تولید ویدئوی OpenAI را دیدهاید. این تکنولوژی بهشدت پیشرفته است، اما همین پیشرفت برای آینده نگران کننده است. این فناوری مشابه تولیدکنندههای متن یا تصویر با هوش مصنوعی کار میکند: شما یک درخواست مینویسید و سیستم یک کلیپ ویدئویی کوتاه برایتان تولید میکند. مثلا در دمو، نماینده OpenAI از سورا خواست ویدئویی از یک قورباغه در جنگلهای آمازون به سبک مستندهای طبیعت بسازد. نتیجه حیرتانگیز بود: تصاویر دوربین از بالا جنگل را نشان میدادند و سپس روی قورباغهای که روی شاخه نشسته بود، زوم میکردند. قورباغه آنقدر واقعی به نظر میرسید که انگار از دل یک مستند بیرون آمده است.
اما در عین این دستاورد فنی، وقتی قورباغه را تماشا میکنیم، بهجای شگفتی، احساس ناخوشایندی به انسان دست میدهد. آنچه میبینیم، واقعی نیست و این را میدانیم.
قورباغه، شاخهای که به آن چسبیده بود، و جنگلی که در آن زندگی میکرد، همگی غیرواقعی بودند و هرگز وجود نداشتند. صحنهای که به تصویر کشیده شده بود، اگرچه از لحاظ بصری چشمگیر بود، اما خالی و بیروح به نظر میرسید.
حتی امکان جعل ویدئوهای کماهمیت هم نگرانکننده است. اگر یک ویدئو از یک سیاستمدار با رفتاری بسیار عجیب ببینید، ممکن است به آن شک کنید. اما اگر یک کلیپ خندهدار در اینستاگرام یا یک ویدئوی بانمک از حیوانات در فیسبوک ببینید، چه؟ این فکر که حتی سادهترین محتواها نیز ممکن است جعلی باشند، میتواند زندگی را کسلکننده و بیروح کند.
ویدئو، مرز جدید هوش مصنوعی:
آیا آمادهایم دنیایی را بپذیریم که تشخیص واقعی از جعلی در آن غیرممکن است؟
پس از معرفی ابزار «سورا» توسط OpenAI در آمریکا و ابزار تولید ویدئوی «مووی جن» توسط متا، و همچنین رونمایی از ابزار «ویئو» گوگل برای برخی کاربران، دنیای هوش مصنوعی در تولید ویدئو وارد مرحله جدیدی شده است. اما این سؤال مطرح میشود: آیا ما آمادهایم در دنیایی زندگی کنیم که دیگر نتوانیم تشخیص دهیم تصاویر متحرکی که میبینیم واقعی هستند یا ساختگی؟
در چند سال اخیر شاهد رشد ابزارهای تولید متن و تصویر با هوش مصنوعی بودهایم، اما تولید ویدئو بهنظر میرسد حساسیت بیشتری داشته باشد. تصاویر متحرک، برخلاف تصاویر ثابت، همیشه سختتر جعل میشدند، اما هوش مصنوعی در حال تغییر این معادله است. این فناوری خطرات بالقوه زیادی دارد. برای مثال، کلاهبرداران با استفاده از هوش مصنوعی، صدای دوستان یا اعضای خانواده را جعل میکنند تا از افراد پول بگیرند. فعالان سیاسی از «دیپفیک» برای تبلیغ اهداف خود بهره میبرند. شاهد اینفلوئنسرهای ساخته شده با هوش مصنوعی ویدیوساز Veo 2 گوگل هستیم که کالایی را معرفی میکنند. حتی سوءاستفادهگران میتوانند تصاویر یا ویدئوهای جنسی جعلی از قربانیان خود بسازند. برخی محققان امنیتی توصیه میکنند خانوادهها برای مواقع اضطراری کلمه رمزی داشته باشند تا بتوانند هویت خود را اثبات کنند.
سازندگان این ابزارها از خطرات آگاه هستند. مثلاً OpenAI قبل از انتشار عمومی، فقط دسترسی محدودی به برخی کاربران خلاق و آزمایشی داد. متا نیز همین رویکرد را اتخاذ کرده است. این ابزارها شامل تدابیر امنیتی مختلفی هستند، مانند محدودیت در نوع درخواستها (برای جلوگیری از تولید ویدئوهایی با چهره افراد مشهور یا محتوای خشونتآمیز یا جنسی) و استفاده از واترمارک برای نشان دادن اینکه ویدئو توسط هوش مصنوعی تولید شده است.
با این حال، حتی امکان جعل ویدئوهای کماهمیت هم نگرانکننده است. اگر یک ویدئو از یک سیاستمدار با رفتاری بسیار عجیب ببینید، ممکن است به آن شک کنید. اما اگر یک کلیپ خندهدار در اینستاگرام یا یک ویدئوی بانمک از حیوانات در فیسبوک ببینید، چه؟ این فکر که حتی سادهترین محتواها نیز ممکن است جعلی باشند، میتواند زندگی را کسلکننده و بیروح کند.
وقتی ویدئوی قورباغهای که سورا ساخته بود را دیدم، به این فکر افتادم که هدف از چنین چیزی چیست؟ شاید این فناوری در تولید جلوههای ویژه سینمایی مفید باشد، اما مستند طبیعت جعلی؟ مستندهای طبیعت ما را به دنیایی میبرند که نمیتوانیم آن را ببینیم، و بخشی از جذابیت آنها، دشواری ثبت تصاویر است. مثلاً پشتصحنههای مستندها نشان میدهند که فیلمبرداران برای ثبت یک صحنه خاص چه سختیهایی کشیدهاند. اما هوش مصنوعی هیچوقت نمیتواند چنین اصالت و تلاشی را بازتاب دهد، چون صرفاً بر اساس محتوای موجود آموزش دیده است.
ممکن است بگویید که مهم نیست یک ویدئو چگونه ساخته شده است؛ قورباغه، قورباغه است. اما چیزی که آزاردهنده است، ذات فریبنده محتوای هوش مصنوعی است. حتی تارترین عکس واقعی هم زندگی بیشتری در خود دارد نسبت به ویدئوی بیروحی که با هوش مصنوعی ساخته شده است.
هرچه محتوای هوش مصنوعی واقعیتر به نظر برسد، خطر بیاعتبار شدن عکسها و ویدئوهای واقعی هم بیشتر میشود. دیگر نمیتوانیم به آنچه میبینیم اعتماد کنیم و مجبوریم برای تشخیص واقعی بودن چیزها، مثل یک کارآگاه عمل کنیم. مثلاً وقتی یک ویدئوی بانمک از خرگوشی که کاهو میخورد در اینستاگرام دیدم و آن را با همسرم به اشتراک گذاشتم، او پرسید: «این واقعیه یا ساختگی؟» نمیتوانستم جواب بدهم. حتی پرسیدن این سؤال هم از لذت لحظه کم کرد. در دنیایی که هر چیزی میتواند جعلی باشد، انگار همه چیز جعلی است.
https://www.theguardian.com/commentisfree/2024/dec/10/ai-openai-sora-video-new-frontier
پیام شما به ما