MIN@MAN
12-16-2009, 03:21 PM
دو مهندش آمریکایی با هدف تحقق ساخت و توسعه روبات های آینده سه قانون مشهور روباتیک آیزاک آسیموف را به شکل مدرن و امروزی تشریح کردند.
آیزاک آسیموف سه قانون مسئولیت روباتیک را شرح داده است. اکنون دیوید وودز و راین مورفی این قوانین را به شیوه ای تغییر داده اند که می توانند در توسعه هوش مصنوعی و نسل های آینده ی روبات ها مورد ملاحظه قرار گیرند.
سه قانون اصلی آسیموف :
1- یک روبات نه می تواند به یک انسان آسیب برساند و نه می تواند اجازه دهد که انسانی مورد آسیب قرار گیرد.
2- یک روبات باید از فرامین انسان پیروی کند مشروط به اینکه این فرامین قانون اول را نقض نکند.
3- یک روبات باید از خود حفاظت کند مشروط به اینکه این دفاع در تضادی با قوانین اول و دوم نباشد.
حال قوانین پیشنهادی وودز و مورفی :
1- یک انسان نمی تواند از یک روبات استفاده کند بدون اینکه سامانه کار انسان روبات به بالاترین سطح قانونی و حرفه ای، امنیتی و اخلاقی برسد.
2- یک روبات باید به انسان ها به روشی مقتضی با نقش آن ها پاسخ دهد.
3- یک روبات باید مجهز به قدرت خودمختاری کافی برای حفاظت از خود باشد به شرطی که این حفاظت یک انتقال تدریجی نظارت را ارائه کند که در تضاد با قوانین اول و دوم نباشد.
آیزاک آسیموف سه قانون مسئولیت روباتیک را شرح داده است. اکنون دیوید وودز و راین مورفی این قوانین را به شیوه ای تغییر داده اند که می توانند در توسعه هوش مصنوعی و نسل های آینده ی روبات ها مورد ملاحظه قرار گیرند.
سه قانون اصلی آسیموف :
1- یک روبات نه می تواند به یک انسان آسیب برساند و نه می تواند اجازه دهد که انسانی مورد آسیب قرار گیرد.
2- یک روبات باید از فرامین انسان پیروی کند مشروط به اینکه این فرامین قانون اول را نقض نکند.
3- یک روبات باید از خود حفاظت کند مشروط به اینکه این دفاع در تضادی با قوانین اول و دوم نباشد.
حال قوانین پیشنهادی وودز و مورفی :
1- یک انسان نمی تواند از یک روبات استفاده کند بدون اینکه سامانه کار انسان روبات به بالاترین سطح قانونی و حرفه ای، امنیتی و اخلاقی برسد.
2- یک روبات باید به انسان ها به روشی مقتضی با نقش آن ها پاسخ دهد.
3- یک روبات باید مجهز به قدرت خودمختاری کافی برای حفاظت از خود باشد به شرطی که این حفاظت یک انتقال تدریجی نظارت را ارائه کند که در تضاد با قوانین اول و دوم نباشد.