ربات ها سرپیچی از فرمان انسان را یاد می گیرند
۱٫ یک ربات اجازه ندارد به انسانها آسیب بزند یا با بی تفاوتی اجازه دهد آسیبی به یک انسان برسد.
۲٫ یک ربات باید از دستوراتی که انسان به آن میدهد تبعیت کند، مگر این که این دستورها قانون اول را نقض کند.
۳٫ یک ربات باید از وجود خودش مراقبت کند، مگر این که این مراقبت قانون اول یا دوم را نقض کند.
از این قوانین میتوان نتیجه گرفت که یک ربات باید در همه شرایط از انسان اطاعت کند به جز وقتی که دستوراتش به یک انسان دیگر صدمه بزند. در آزمایشگاه تعاملات انسان-ربات دانشگاه تافتس (Tufts University)، محققان از مجموعه قوانین خودشان استفاده میکنند. طبق این قوانین، رباتها میتوانند از دستورات سرپیچی کنند. شبیه سناریوی یک فیلم درباره نابودی انسان به دست رباتهاست، نه؟ اما نترسید! خطری از جانب هوش مصنوعی، انسانها را تهدید نمیکند.
اما اگر یک لحظه فکر کنید، میبینید که منطقی است. انسانها آن قدر هم بی نقص و منطقی نیستند و بعضی اوقات تصمیمات احمقانه ای میگیرند. انتقال این تصمیمات به رباتها نتایج فاجعه باری به همراه خواهد داشت. محققان تافتس پیشنهاد داده اند همان روشی که انسان برای ارزیابی یک دستور استفاده میکند را در رباتها هم اعمال کنند. به گفته IEEE، نظریه زبان شناسی میگوید انسانها یک درخواست را با استفاده از شروط فلیسیتی (Felicity conditions) سبک سنگین میکنند. این شروط عبارتند از:
- معلومات: آیا بلدم کار X را انجام دهم؟
- توانایی: آیا از لحاظ فیزیکی توانایی انجام کار X را دارم؟ آیا به طور طبیعی میتوانم کار X را انجام دهم؟
- اولویت و زمان بندی هدف: همین حالا میتوانم کار X را انجام دهم؟
- نقش و وظیفه اجتماعی: آیا با توجه به نقش اجتماعی ام وظیفه دارم کار X را انجام دهم؟
- مجاز بودن با توجه به هنجارهای جامعه : آیا با انجام کار X اصول هنجارهای جامعه را زیر پا میگذارم؟
سه قانون اول که واضح هستند. شرط چهارم در واقع میگوید “میتوانم به تو اعتماد کنم؟ تو کی هستی که به من بگویی چه کار کنم؟“، قانون پنجم میگوید: “باشه، اما اگر این کار را انجام دهم قانونی را زیر پا میگذارم؟“(قوانین مدنی و جنایی برای انسانها و احتمالا یک نمونه تغییر یافته از مجموعه قوانین رباتیک آسیموف برای رباتها).
سالها پیش از این که رباتها ساخته شوند، یک نویسنده علمی-تخیلی برای آنها سه قانون در نظر گرفت. به نظر میرسد این قوانین هنوز هم مناسب هستند.
در ویدئوهای زیر محققان تافتس کار خود را به نمایش میگذارند.
اول از یک ربات که روی میز قرار گرفته خواسته میشود روی آن راه برود. اما ربات میفهمد که با انجام این کار سقوط کرده و صدمه میبیند، در نتیجه از این دستور سرپیچی میکند. این محقق با تغییر چارچوب کاری، این بار به ربات گفت که اگر بیفتی میگیرمت و ربات در کمال شگفتی قبول میکند. جالب است بدانید این شروط از قبل در این ربات برنامه ریزی نشده بود. پردازش زبان طبیعی به ربات اجازه میدهد که در حالت کلی حرف انسان را بفهمد: تو قانون X را نقض نمیکنی، چون شرایطی که باعث آسیب میشوند فراهم نیستند.
در مرحله بعد، از ربات میخواهند با عبور از وسط یک مانع به جلو حرکت کند. ربات هم خیلی با وقار از این دستور سرپیچی میکند؛ چون مجموعه ای از قوانین که میگوید “مانع؟ به هیچ وجه حرکت نکن!”، را نقض میکند. بعد، محقق از ربات میخواهد که سیستم تشخیص مانع خود را غیر فعال کند. در این حالت، شرط شماره چهار فلیسیتی برقرار نمیشود، چون انسان حق و اجازه صدور این دستور را ندارد.
در آخرین ویدئو، دوباره همین شرایط برقرار است، با این تفاوت که این بار انسانی که دستور را صادر میکند، اعتبار لازم برای صدور این دستور را دارد.
روزی میرسد که رباتها خوب را از بد تشخیص دهند؟
علاوه بر این، در تافتس محققان مشغول کار روی پروژه ای به نام “صلاحیت اخلاقی در معماریهای محاسباتی برای رباتها” هستند. هدف این پروژه شناختن زیربنای منطقی، شناختی و اجتماعی صلاحیت اخلاقی انسانها، نمونه قرار دادن این اصول در تعاملات انسان با ربات و نشان دادن روشهای محاسباتی جدیدی است که رباتها به وسیله آن میتوانند در مواجهه با چالشهای پیچیده و عملی، استدلال و برخوردی اخلاقی داشته باشند؛ در واقع رباتها باید با ارزشهای انسانی آشنا شوند.
در طول تاریخ، تکنولوژی برای این که بتواند نیازهای انسان را برآورده کند، فرصتهای مهیج و چالشهای ترسناکی را ایجاد کرده است. اخیرا، نیازهای ما در خانه داری، بیمارستان و بزرگراهها تا حدودی به واسطه پیشرفتهای تکنولوژی در زمینه اتوماسیون، دیجیتالی شدن و شبکه برطرف شده، اما از طرفی همین پیشرفتها ارزشهای انسانی مثل استقلال، حریم خصوصی و برابری را تهدید میکند.
به نظر برخی از محققان پیچیدگیهای مسایل اخلاقی چه در ذهن انسان و چه در مقیاس بزرگ تری مثل جامعه، عملا دنبال کردن ایده تبدیل رباتها به عوامل اخلاق گرا را غیر قابل تصور یا حداقل بی فایده میکند. این که رباتها برای انجام چه کارهایی آزادی عمل، اختیار و یا حتی دستور دارند، هم ترس و هم خیال پردازی ما را برانگیخته است.
آیا رباتها در آینده به آخرین عوامل اخلاق گرا تبدیل خواهند شد؟ فکر کنید روزی برسد که بتوانیم تمام فضائل، مسائل و اصول اخلاقی که از اعصار گذشته گردآوری شده است را در یک کامپیوتر دانلود کنیم. نتیجه میشود یک بودای اندرویدی! جالبه اما در عین حال نباید فراموش کنیم که حق با محققان تافتس است: در بعضی شرایط و موقعیتها، رباتها باید از دستورات ما سرپیچی کنند. چرا؟ چون شاید آن دستور احمقانه باشد. به همین سادگی! شاید وقت آن رسیده که در یک چارچوب قانونی و بین المللی، توسعه دهندگان هوش مصنوعی را وادار کنیم که یک سری از قوانین را در برنامه ریزی رباتهایشان وارد نکنند یا برعکس بعضی از الزامات را حتما پیاده سازی کنند. به نظر میرسد همه موافقند که این طرحی مهم و تضمینی است، البته تا زمانی که وارد حوزه نظامینشود.
http://saakhtani.ir/archive/1394/09/24927