تبیان، دستیار زندگی
به مناسبت سی و یکمین سالگرد مرگ نخستین قربانی روباتیک
بازدید :
زمان تقریبی مطالعه :

قانون اساسی روبات ها

25 ژانویه سال 1979 یکی از کارگران دستگاه های مونتاژ خط تولید موتور فورد به نام رابرت ویلیامز توسط دستگاه کشته شد. این اولین فردی بود که قربانی ماشین های خودکار یا به اصطلاح امروزی روبات ها شد. جالب اینکه مرگ رابرت ویلیامز مصادف بود با پنجاه و هشتمین سالگرد نمایش یک تئاتر با نام روبات های جهانی روسم (R.U.R) که در آن کارل چاپک – نویسنده چک قرن بیستم – اولین بار نام روبات را به عنوان یک شخصیت مصنوعی وارد دنیای واژگان جهانی کرد. چاپک این کلمه را براساس یک کلمه چکسلواکی به معنای بیگاری اختراع کرد و این واژه در سال 1923 وارد ادبیات انگلیسی شد.

ویلیامز در سال 1979 در حالی که بخش های مونتاژ شده را جمع آوری می کرد، بر اثر ضربه سنگین بازوهای روبات کشته شد. خانواده ویلیامز بعدها مبلغ 10 میلیون دلار بابت این خسارت جانی دریافت کردند. هیات منصفه ای که این پرونده را بررسی می کرد. تایید کرد که مرگ ویلیامز بر اثر نبود موارد ایمنی نظیر گزینه هشدار موارد اضطراری که در حین کار کارگر با روبات پیش می آید، کشته شده است. البته به لطف راه اندازی خطوط مونتاژ صنعتی، روبات در دنیای امروزی به یک دستگاه معمولی و بعضاً پیش پا افتاده تبدیل شده است.

با وجودی که یکی از همین روبات ها باعث مرگ ویلیامز شده، امروزه روبات ها به غیر از حیطه کارخانه و کارهای سخت، به زندگی شخصی ما هم وارد شده اند، خانه مان را جارو می کنند، مین های نظامی را خنثی یا منفجر می کنند، به جای ما در مریخ پرسه می زنند، میوه برداشت می کنند، از افرادمسن مراقبت می کنند و برای مابوردهای مدار چاپی می سازند.

روبات ها

این تقسیم کار بین انسان و روبات و همچنین پیشرفت های چشمگیر در زمینه ساخته روبات ها، بحث اخلاقی روبات ها و ماشین ها را که به عقیده بیل گیتس، موسس مایکروسافت محور پیشرفت های آینده فناوری خواهند بود، پیش می کشد. یکی از نگرانی های قدیمی در مواجهه با روبات ها، بحث فناوری گریزی (Luddite) است که به خاطر ترس از جایگزین شدن روبات ها به جای نیروی انسانی مطرح شده و نگرانی های بعدی که از آن استنتاج می شود، مربوط به این است که هوش مصنوعی روزی از هوش انسان پیشی می گیرد.

روبات ها

براساس این نگرش، روبات ها علیه انسان ها قیام کرده و کارفرمایان خود را از بین می برند و این همان مفهومی است که طبق سه قانون روباتیک ایزاک آسیموف، نویسنده مشهور داستان های علمی تخیلی، نباید اتفاق بیفتد اولین قانون از قوانین سه گانه آسیموف که در دهه 1950 در داستان من روبات هستم (I.Robot) مطرح شد، می گوید:

قانون اول، یک روبات نباید با ارتکاب عملی یا خودداری از انجام عملی باعث آسیب دیدن یک انسان شود. قانون دوم این است که یک روبات باید از تمامی فرمان های انسان تبعیت کند، مگر اینکه آن فرمان یا فرمان ها در تعارض با قانون نخست باشد و قانون سوم: تا هنگامی که قانون نخست یا دوم زیر پا گذاشته نشده، روبات باید وجود خود را حفظ کرده و در بقای خود بکوشد.

روبات ها

این قوانین اگرچه در داستان ها آورده شده، در بسیاری جاها حتی در صنایع نیز به کار می رود. رونالد آرکین، مدیر لابراتور Mobile Robot در موسسه فناوری جورجیا می گوید: زمانی که پای روبات ها به میان می آید، دانشمندان هیچ واکنشی نشان نمی دهند و گویی نمی خواهند از خواب خرگوشی بیدار شوند. فکر این را نمی کنند که چه خواهد شد. اما به نظر می آید که با روی کار آمدن تسلیحات هسته ای، آنها باید از خواب بیدار شوند. وی تشریح می کند که مرگ ویلیامز به عنوان یک رویداد صنعتی، نشان دهنده خطای خود انسان ها در مورد مسایل ایمنی است و مرگ ویلیامز به میل و اراده روبات نبوده است. وی می افزاید: این رویداد اخلاقی نبوده؛ مگر اینکه شما از دید یک فناوری گریز و علیه انقلاب صنعتی بخواهید به این مساله نگاه کنید. حال سه ده از مرگ ویلیامز می گذرد و تازه دولت ها به این فکر افتاده اند که برای روبات ها قانون هایی وضع کنند و محققان در بررسی مفهوم های قانونی طرز رفتار روبات ها در مقابل انسان هستند و به این فکر می کنند که آیا روبات ها نیز به وکیل نیازی دارند. بیش تر دغدغه آرکین در مورد باز خورد روح انسان درتعامل با روبات هاست. به ویژه با مشاهده اینکه امروزه یکی از اهداف علم روباتیک ورد روبات ها به زندگی شخصی ما، چه به بهانه همدم شدن و چه کمک به انسان است.

قانون صفر

آیزاک آسیموف بعدا (در انتهای داستان امپراتوری روبات ها) اصل دیگری را که از احتمال بروز مشکل پیشگیری می کرد، به قوانین سه گانه افزود و قانون اول را نیز براساس آن به صورت زیر کامل کرد:

قانون صفر: یک روبات نباید به بشر آسیب برساند و یا با خودداری از عملی موجب آسیب به بشر شود.

قانون اول( تکمیل شده): یک روبات نباید به انسان آسیب برساند و یا با خودداری از عملی موجب آسیب دیدن او شود، مگر این که قانون صفر نقض شود.

قانون چهارم

در سال 1974، یعنی دو دهه پس از مطرح شدن قوانین سه گانه روباتیک آسیموف، لیوبن دیلوف، نویسنده بلغاری داستان های علمی تخیلی در کتاب راه ایکاروس، قانون دیگری را قوانین سه گانه آسیموف افزود، مبنی بر اینکه طراحان روبات حق ندارند برای دادن ساختار انسانی به روبات ها، روباتی بسازند که روان داشته باشد.

قانون چهارم بنیاد دوستان

هری هاریسون، رییس آکادمی تکریم آسیموف در سال 1986 کتابی را با عنوان قانون چهارم روباتیک نوشت و در آن قانون چهارم را این گونه مطرح کرد که تولید دوباره یک روبات در صورتی می تواند انجام بگیرد که آن روبات با هیچ کدام از قوانین اول، دوم و سوم تعارض نداشته باشد.

قانون پنجم

نیکولا کساروفسکی، نویسنده بلغاری داستان های علمی تخیلی در سال 1983 در کتابی با عنوان قانون پنجم روباتیک، قانون، یک روبات باید بداند که روبات است. استدلال کساروفسکی این بود که اگر یک روبات انسان نما به نحوی بپذیرد که روبات نیست، می تواند قوانین اول تا چهارم را نقض کند.

قوانین قرن بیست و یکم

در ماه اوت سال 2009، دو مهندس آمریکایی با هدف تحقق ساخت روبات های آینده، سه قانون روباتیک آیزاک آسیموف را به شکلی مدرن و امروزی تشریح کردند.

روبات ها

دیوید وودز (David Woods)، پروفسور مهندسی سیستم های یکپارچه دانگشاه ایالت اوهایو و رابین مورفی از دانشگاه A&M تگزاس در یکی از شماره های مجله علمی IEEEIntelligent Systems این قوانین را به شیوه ای تغییر دادند که می تواند در توسعه هوش مصنوعی ونسل های آینده روبات ها مورد ملاحظه قرار گیرد. دیوید وودز در این خصوص توضیح داد: دیدگاه فرهنگی ما از روبات ها به گونه ای است که همیشه آنها را به صورت روبات های ضد انسان تجسم می کنیم. ما انسان ها اعتقاد داریم که روبات ها می توانند به موجوداتی بهتر از انسان تبدیل شوند؛ به طوری که خطاهای آنها بسیار کم تر از خطاهای انسانی باشد. ما در به روز رسانی قوانین آسیموف قصد داریم تصویری راکه از روبات ها وجود دارد به روشی واقعی تر بررسی کنیم.

قوانین پیشنهادی وودز و مورفی به شرح زیر است:

1- یک انسان نمی تواند از یک روبات استفاده کند بدون اینکه سیستم کار انسان روبات به بالاترین سطح قانونی و حرفه ای امنیتی و اخلاقی خود برسد.

2- یک روبات باید به انسان به روشی مقتضی با نقش آنها پاسخ دهد.

3- یک روبات باید مجهز به قدرت خودمختاری کافی برای محافظت از وجود خود باشد به شرطی که این حفاظت یک انتقال تدریجی کنترل را ارایه کند که در تضاد با قوانین اول و دوم نباشد.

منابع: Elecrtonicsweekly , Wired

گزارش: نسترن صائبی

تنظیم برای تبیان: فاطمه مجدآبادی