مقررات پاپی هوش مصنوعی!
امیر خدادادهمدانی حقوقدان فناوریهای نوین بزرگترین مرکز دینی جهان چند سالی است که بر مسائل اخلاقی هوش مصنوعی تمرکز کرده و این مهم در سال ۲۰۱۳ با پیامی هشدارآمیز از سوی پاپ فرانسیس رهبر فقید کاتولیک های جهان در مجمع جهانی اقتصاد در داووس به رهبران سیاسی، اقتصادی و تجاری، جلوه تازه […]
امیر خدادادهمدانی
حقوقدان فناوریهای نوین
بزرگترین مرکز دینی جهان چند سالی است که بر مسائل اخلاقی هوش مصنوعی تمرکز کرده و این مهم در سال ۲۰۱۳ با پیامی هشدارآمیز از سوی پاپ فرانسیس رهبر فقید کاتولیک های جهان در مجمع جهانی اقتصاد در داووس به رهبران سیاسی، اقتصادی و تجاری، جلوه تازه ای گرفت. تا جاییکه واتیکان تابلوی ورود ممنوع عدم مداخله الگوریتمها در سرنوشت و آینده انسان را بالا برد و در سند دپارتمان های مرکز دینی کاتولیک های جهان درباره اخلاق در هوش مصنوعی تاکید شده که «محتواهای جعلی رسانهای تولید شده توسط هوش مصنوعی میتوانند بهتدریج پایههای جامعه را سسست کنند.» بنابراین «این موضوع مستلزم وضع مقررات دقیق است، زیرا انتشار اطلاعات نادرست [دروغپراکنی]- به ویژه از طریق رسانههای تحت کنترل یا تحت تأثیر هوش مصنوعی – میتواند ناخواسته منتشر شود و به قطببندی سیاسی و ناآرامی اجتماعی دامن بزند.»
ادامه مسیر وقتی جالب شد که IBM و مایکروسافت بهعنوان دوشرکت بزرگ حوزه فناوری، تقاضای پیادهسازی استانداردهای اخلاقی سختگیرانه در توسعه هوش مصنوعی از سوی واتیکان را پذیرفته و امضا کردند.
البته اهتمام رهبران مسیحیت به هوش مصنوعی به اینجا ختم نشده و حتی پس از درگذشت پاپ فرانسیس، وقتی «رابرت فرانسیس پرووست» به عنوان پاپ جدید برگزیده شد، در حالی اولین مراسم عشای ربانی خود را برگزار می کرد که اپلواچ را روی دست خود بسته بود و با ذوق و شوق اعلام کرد: به تأسی از پاپ لئو دوازدهم که آغاز دوران انقلاب صنعتی هدایت کلیسا را بر عهده داشت، او هم در دوران تحولات هوش مصنوعی لقب «لئو» را برای خود انتخاب کرده است.
در این بین، آنگونه که دکتر یوریک ویلکس، استاد دانشگاه شفیلد انگلستان در کتاب «هوش مصنوعی و دین» بیان کرده: در آینده ای نه چندان دور، اولین هوش مصنوعی فراهوشمند به وجود خواهد آمد که با انسان ها در هم خواهد آمیخت و ترابشریت را به وجود خواهد آورد. بنابراین در هوش مصنوعی قوی ادعا آن است که انسان می تواند ماشین هایی بسازد که دقیقاً مانند انسان احساسات، ذهن و فهم داشته باشند؛ به طوری که انگار انسان انسانی جدیدی ساخته باشد. با این اوصاف، سوال این است که اکنون واتیکان در تنظیم گری هـوش مصنوعی تنها قصد دارد به رویکرد فنی- مهندسی، شامل چگونگی تدوین کدهای اخلاقی در سیستم های هوشمند برای جلوگیری از خطرات احتمالی هوش مصنوعی علیه انسان ها، خود را محدود کند؟!
نظرات و تجربیات شما لغو پاسخ
برای نوشتن دیدگاه باید وارد بشوید.
