بحث اعتماد به هوش مصنوعی یک مسئله پیچیده است که نیازمند توجه به جوانب مختلف آن دارد. نسلهای جدیدتر مدلهای هوش مصنوعی، با پاسخهای پیچیدهتر و کوتاهترشان، این سوال را در ذهن ایجاد میکنند که چه کسی هنگام صحبت کردن سود میبرد؟ ما یا هوش مصنوعی؟
برای جلوگیری از سوء استفاده توسط این سیستمها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. بحث اعتماد به هوش مصنوعی یک مسئله پیچیده است که نیازمند توجه به جوانب مختلف آن دارد. نسلهای جدیدتر مدلهای هوش مصنوعی، با پاسخهای پیچیدهتر و کوتاهترشان، این سوال را در ذهن ایجاد میکنند که چه کسی هنگام صحبت کردن سود میبرد؟ ما یا هوش مصنوعی؟ دستکاری شرکتهای اینترنتی برای تامین منافع خود چیز جدیدی نیست و همین الان هم نتایج جستجوی گوگل، فید فیسبوک یا دیگر شبکههای اجتماعی شما با ورودیهای تبلیغاتی و پولی پر شده است. فیسبوک، تیکتاک و دیگر شبکههای تعاملی فیدهای شما را دستکاری میکنند تا زمانی را که در پلتفرم میگذرانید به حداکثر برسانند، که به معنای بازدید بیشتر از تبلیغات است.
دستیاران دیجیتال شخصی
آنچه سیستمهای هوش مصنوعی را از سایر خدمات اینترنتی متمایز میکند این است که چقدر تعاملی هستند و چگونه این تعاملات به طور فزایندهای شبیه به روابط میشوند. برای مثال هوش مصنوعی را در نظر بگیرید که سفرهایی را برای شما برنامهریزی میکند، از طرف شما مذاکره میکند یا به عنوان درمانگر و مربی عمل میکند و جوری پیش میرود که دیگر نیازی به برونیابی زیادی از فناوریهای امروزی نداشته باشید. آنها احتمالاً 24 ساعته با شما هستند، شما را از نزدیک میشناسند و میتوانند نیازهای شما را پیشبینی کنند. این نوع رابط مکالمه با شبکه گسترده خدمات و منابع در وب، در محدوده قابلیتهای هوش مصنوعی مولد موجود مانند ChatGPT است. در واقع آنها در مسیر تبدیل شدن به دستیاران دیجیتال شخصی هستند.
مردم به تنهایی میتوانند خطرات و سوگیریهای بالقوه هوش مصنوعی را حدس بزنند و اثرات مخرب آنها را کاهش دهند.
جاسوسی تا کجا؟!
طبق نظر متخصصان امنیت و دانشمندان داده، افرادی که به این هوش مصنوعیها تکیه میکنند باید مطمئن شوند که هوش مصنوعی مخفیانه برای شخص دیگری کار نمیکند. باید بدانید در سراسر اینترنت، دستگاهها و سرویسهایی که به نظر میرسد برای شما کار میکنند، در واقع مخفیانه علیه شما کار میکنند. پلتفرمهای هوشمند از شما جاسوسی میکنند. برنامههای تلفن، دادههای شما را جمعآوری کرده و میفروشند، بسیاری از برنامهها و وبسایتها تفکرات و جستوجوهای شما را از طریق الگوهای تاریک، عناصر طراحی که عمداً بازدیدکنندگان وبسایت را گمراه، مجبور یا فریب میدهند، دستکاری میکنند و در نهایت این سرمایهداری نظارتی است و هوش مصنوعی در حال شکلگیری است تا بخشی از آن باشد. در یک جمله هوش مصنوعی در سرمایه داری نظارتی نقش ایفا میکند، که در جاسوسی از شما خلاصه شده تا از شما پول دربیاورد.
همه چیز فدای پول!!
دستیارهای دیجیتال هوش مصنوعی به بهانه کمک مفید و کارآمد بودن، شما را بهتر از دوستان نزدیک، شرکای صمیمی و درمانگرتان میشناسند. اما دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی ندارید. اخبار و حقایق ساختگی که GPT و دیگر مدل های زبان بزرگ تولید میکنند را کنار بگذارید و کمی هوشمندانه فکر کنید. شما نمیدانید هوش مصنوعیها چگونه پیکربندی شدهاند، چگونه آموزش دیدهاند، چه اطلاعاتی به آنها داده شده و از چه دستورالعملهایی پیروی میکنند. بسیاری از این هوش مصنوعیها با هزینههای هنگفت توسط برخی از بزرگترین انحصارگرهای فناوری ایجاد و آموزش داده میشوند. آنها برای استفاده رایگان یا با هزینه بسیار کم به مردم پیشنهاد میشوند. اما این شرکتها باید به نحوی از آنها درآمدزایی کنند و احتمالاً به نوعی شامل نظارت و دستکاری میشوند. برای روشن شدن موضوع تصور کنید از چتبات خود میخواهید برای تعطیلات شما برنامه ریزی کند. آیا شرکت هواپیمایی یا هتل زنجیرهای یا رستوران خاصی را به این دلیل انتخاب کرده که برای شما بهترین بوده یا به این دلیل که سازنده آن از کسب و کارها رشوه دریافت کرده؟ و یا مثلا اگر از چتبات خود اطلاعات سیاسی میخواهید، باید این را در نظر بگیرید که سیاست شرکت صاحب چتبات چگونه است؟ یا حتی دیدگاه جمعیت شناختی افرادی که از دادههای آنها در آموزش مدل استفاده شده چگونه بوده است؟ در انتها باید بگوییم در حال حاضر هیچ راهی برای دانستن چنین چیزهایی وجود ندارد ولی مردم به تنهایی میتوانند خطرات و سوگیریهای بالقوه هوش مصنوعی را حدس بزنند و اثرات مخرب آنها را کاهش دهند. بنابراین، هنگامی که یک توصیه سفر یا مثلا اطلاعات سیاسی را از یک ابزار هوش مصنوعی دریافت میکنید، با چشم بدبینانهای به آن نزدیک شوید و تمامی جوانب را بسنجید. ابزار هوش مصنوعی با وجود همه جادوگریهای تکنولوژیکیاش، ممکن است کمی سوگیری داشته باشد.



