حساسیت یک ربات هوشمند

هوش مصنوعی مانند حیوانات به حفاظت اخلاقی نیاز دارد

هوش مصنوعی به طور فزاینده ای بر زندگی مردم تأثیر می گذارد و کارشناسان خواستار وضع قانون و محدودیت هستند.

هوش مصنوعی به طور فزاینده ای بر زندگی مردم تأثیر می گذارد و کارشناسان خواستار وضع قانون و محدودیت هستند.

  • هوش مصنوعی به طور فزاینده ای بر زندگی مردم تأثیر می گذارد و کارشناسان خواستار وضع قانون و محدودیت هستند.

    بسیاری از دانشگاه های جهان در حال تحقیق درباره هوش مصنوعی هستند. شرکت ها و سازمان هایی مانند موسسه آلن و غول های فناوری مانند گوگل و فیس بوک را به لیست محققان این حوزه اضافه کنید. نتیجه تحقیقات جامع به احتمال زیاد منجر به ظهور یک هوش مصنوعی در آینده نزدیک می شود که از نظر پیچیدگی شناختی به حیواناتی مانند موش و سگ نزدیک خواهد بود. اکنون وقت آن است که به چرایی و چگونگی اجرای محافظت های اخلاقی از هوش مصنوعی بپردازیم. آیا هوش مصنوعی نیز مستحق حمایت قانونی است که به حیوانات داده می شود؟

    مباحثی که تاکنون درباره “حقوق هوش مصنوعی” یا “حقوق روبات ها” مطرح شده است ، عموماً به تعهدات و وظایف اخلاقی هوش مصنوعی با آگاهی انسان یا بالاتر اشاره دارد. نمونه ها شامل نمونه های سینمایی مانند حقوق درویدها در مجموعه راهپیمایی ستاره ای یا شخصیت دولورس در سریال وست ورلد است. به نظر نمی رسد که تفکر در این جهت شروع مناسبی برای بررسی چالش باشد و ممکن است پیامدهای اخلاقی عظیمی داشته باشد.

    بعید است که انسانها در آینده نزدیک با پیچیدگی هوش انسانی به هوش مصنوعی دست یابند. هوشي كه نيازمند ملاحظات اخلاقي شبيه به انسان است. از سوی دیگر ، ایجاد هوش مصنوعی با پیچیدگی نزدیک به پایین تر از هوش انسانی دور از انتظار نیست. در نتیجه ، ملاحظاتی کمتر از مسائل اخلاقی انسانی باید برای آنها در نظر گرفته شود.

    امروزه احتیاط زیادی در مورد نحوه انجام تحقیقات با استفاده از حیوانات وجود دارد. به عنوان مثال ، کمیته های حمایت از حیوانات ، پیشنهادات تحقیقاتی را بررسی می کنند تا اطمینان حاصل شود که در طول تحقیقات مورد قتل یا شکنجه غیر ضروری قرار نمی گیرند. اگر در برخی تحقیقات پزشکی ، سلول های بنیادی انسان یا مهمتر از آن سلول های مغز انسان درگیر شوند ، نظارت و بازرسی های عمیق تری امکان پذیر است. در حقیقت ، تحقیقات زیست پزشکی تحت مطالعه عمیق انجام می شود. در مقابل ، تحقیقات هوش مصنوعی ، که ممکن است شامل برخی از خطرات اخلاقی بالا باشد ، مشمول هیچ گونه بررسی قانونی یا سازمانی نمی شود. برخی از کارشناسان می گویند که این تحقیق همچنین ممکن است به چارچوب های اخلاقی بیشتری نیاز داشته باشد.

    ضرورت اخلاق در برخورد

    در نگاه اول به نظر می رسد که هوش مصنوعی تا زمانی که به هوشیاری واقعی نرسد نیازی به حمایت اخلاقی ندارد. آگاهی واقعی جریان هوشمند تجربه با لذت و رنج واقعی است. چنین ایده ای منطقی به نظر می رسد ، اما به هر حال س questionالی بی پاسخ وجود دارد: چگونه می توانیم از ایجاد هوش با توانایی تجربه واقعی مطمئن باشیم؟ بله ، اگر هوش مصنوعی مانند دولورس یا دیگر شخصیت های فیلم و سریال ساخته شود ، می تواند از خود شکایت کرده و از خود دفاع کند و مطمئناً بر سر حقوق خود بحث خواهد کرد. از سوی دیگر ، اگر هوش مصنوعی قادر به صحبت کردن نباشد (مانند موش ها و سگ ها) یا به هر دلیلی نتواند در مورد حالات درونی آنها اظهار نظر کند ، نمی تواند رنج را اعلام کند.

    چالشی که در بالا مطرح شد پیچیدگی را در مطالعه هوش مصنوعی ایجاد می کند. مطالعات علمی در مورد آگاهی هنوز در مورد تعریف آگاهی اجماع ندارند. در واقع ، ما هنوز نمی توانیم وجود یا عدم وجود آگاهی را تعریف کنیم.

    چالش اصلی، نبودن اجماعی برای تعریف هوشیاری است

    چالش های اخلاقی

    آگاهی در برخی از دیدگاه های لیبرال تنها به توانایی پردازش اطلاعات با سازمان مناسب نیاز دارد. مثالها شامل مدلهای اطلاعات انعطاف پذیر یک سیستم در ارتباط با اشیاء در محیط هستند. مدل هایی که دارای ظرفیت های قابل توجه و برنامه ریزی عملیاتی بلند مدت هستند. جهان علم احتمالاً در آستانه دستیابی به چنین آگاهی است.

    تعریف آگاهی در دیدگاه های محافظه کار نیازمند قابلیت های بیولوژیکی خاصی است. به عنوان مثال ، مغز پستانداران شبیه به جزئیات ساختاری سطح پایین تر است. مطمئناً پیشرفت های علمی حتی به ایجاد چنین آگاهی نزدیک نشده است.

    صحت هیچ یک از گزاره های فوق را نمی توان تأیید یا تکذیب کرد و هیچکدام را بر دیگری برتری ندانست. از سوی دیگر ، اگر دیدگاه لیبرال را به درستی در نظر بگیریم ، به زودی قادر خواهیم بود هوش مصنوعی پایین تر از انسان ها را در مقیاس وسیع بسازیم که نیاز به حفاظت اخلاقی دارد. ریسک اخلاقی در این شرایط خود را نشان می دهد.

    خطر هوش مصنوعی

    خطر هوش مصنوعی

    بحث در مورد خطرات و خطرات هوش مصنوعی به طور کلی بر خطرات متمرکز است که فناوری های جدید هوش مصنوعی ممکن است برای انسان ایجاد کند. به عنوان مثال ، می توان به همان داستانهای علمی تخیلی اشغال جهان و نابودی نسل بشر اشاره کرد. در بهترین حالت ، خطر کنترل سیستم هایی مانند سیستم بانکی وجود دارد. به طور کلی خطرات انسانی برای هوش مصنوعی از طریق سوء استفاده از آنها در بحث خطرات بررسی نمی شود.

    در هیچ‌یک از مباحث، خطر انسان برای هوش مصنوعی بررسی نمی‌شود

    مطالعه حاضر ممکن است شبیه به داستان های علمی تخیلی باشد. از سوی دیگر ، محققان و جامعه فعال هوش مصنوعی در مسیر توسعه هوش مصنوعی آگاهانه یا سیستم های عظیم هوش مصنوعی هستند. به همین دلیل ، دستیابی به یک سیستم کاملاً آگاه به احتمال زیاد رخ می دهد و جنبه های اخلاقی آن نیز باید مورد توجه قرار گیرد. تحقیقات در آن زمینه مستلزم بررسی اخلاقی است که مشابه تحقیقات حیوانات یا نمونه های بافت عصبی انسان است.

    هنگامی که اولین نقض اخلاقی جدی در تحقیقات آشکار شد ، حفاظت اخلاقی مناسب از نمونه های حیوانات و انسان در تحقیقات زیست پزشکی انجام شد. به عنوان مثال می توان به توصیف غیر اجباری حیوانات زنده ، جنایات جنگی نازی ها در پزشکی و تحقیقات بحث برانگیز در مورد سیفلیس در دانشگاه توسکانی در ایالات متحده اشاره کرد.

    دستیابی به هوشیاری مصنوعی واقعی، دور از انتظار نخواهد بود

    با توجه به آنچه در گذشته اتفاق افتاده است ، احتمالاً محققان امروزی فرصتی برای عملکرد بهتر از هوش مصنوعی دارند. به عنوان راه حل های عملی ، می توان به ایجاد کمیته های نظارتی برای بررسی و اعتبار سنجی تحقیقات هوش مصنوعی اشاره کرد. چنین کمیته هایی ، درست مانند کمیته های نظارت بر تحقیقات حیوانات یا سلول های بنیادی ، باید ترکیبی از اعضای علمی و غیر علمی داشته باشند. طراحان هوش مصنوعی ، محققان ذهن آگاهی ، اخلاق شناسان و اعضای علاقه مند به این موضوعات باید در کمیته های نظارت حضور داشته باشند.

    کمیته های نظارت بر تحقیقات هوش مصنوعی وظیفه دارند خطرات اخلاقی طرح های جدید در زمینه هوش مصنوعی را شناسایی و بررسی کنند. آنها باید درک پیچیده و عمیقی از مشکلات اخلاقی و علمی پیشرو داشته باشند. در واقع ، اعضای ناظر باید بتوانند چالش ها و خطرات اخلاقی را در مواجهه با پیشرفت تحقیقات مقایسه و تحلیل کنند.

    اگر تا کنون کمیته های نظارت بر هوش مصنوعی تشکیل شود ، آنها احتمالاً درباره تمام تحقیقات موجود در این زمینه قضاوت خواهند کرد. البته ، هیچ یک از تحقیقات ما اکنون بر اساس هر گونه تعریف از آگاهی به آگاهی واقعی نزدیک نمی شود ، اما امکان دستیابی به آن دور از ذهن نیست. در نتیجه ، بهتر است قبل از عبور از خط اخلاقی و ایجاد آگاهی واقعی ، آمادگی پذیرش چالش های اخلاقی را داشته باشید.

    میانگین امتیازات ۵ از ۵
    از مجموع ۱ رای