اخبار قماخبار مهمکمیسیون اقتصادیکمیسیون فناوری

رژیم صهیونیستی با هوش مصنوعی امنیت جهان را به خطر انداخته است

آستان بهارستان؛ دبیرکل مجمع جهانی تقریب مذاهب اسلامی در سخنرانی خود در مجمع بین‌المللی فقه اسلامی قطر با تأکید بر ضرورت تحلیل ساختاری آسیب‌های هوش مصنوعی، خواستار محکومیت کاربردهای نظامی این فناوری توسط رژیم صهیونیستی شد.

به گزارش خبرگزاری حوزه، حجت الاسلام والمسلمین حمید شهریاری، دبیرکل مجمع جهانی تقریب مذاهب اسلامی که به منظور شرکت در بیست و ششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان مطالب و ملاحظاتی درباره ی سخنرانی‌های حاضران در خصوص احکام هوش مصنوعی و ضوابط و اخلاقیات آن با تاکید بر ضرورت طبقه‌بندی ساختاری در تحلیل آسیب‌های هوش مصنوعی گفت: فهرست آسیب‌های هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد. بر این اساس، پیشنهاد می‌شود این آسیب‌ها در پنج سطح بُعد حقوقی ـ فقهی، بُعد امنیتی ـ سیاسی، بُعد فنی ـ سیستمی، بُعد اقتصادی و بُعد اجتماعی ـ فرهنگی طبقه‌بندی شوند.

وی افزود: صرفِ ذکر آسیب‌ها گرچه ضروری است، اما کافی نیست؛ بلکه باید به‌صورت گسترده‌تری تهدیدات وجودی و فلسفی، به‌ویژه در سطح آینده‌پژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات می‌توان به سناریوهای مربوط به فراهوش مصنوعی (Superintelligence)، فقدان امکان کنترل بلندمدت بر سامانه‌های هوشمند مستقل و واگذاری تصمیمات سرنوشت‌ساز به سامانه‌های بی‌مسئولیت و حکومت‌های فاقد مسئولیت‌پذیری اشاره کرد.

حجت الاسلام والمسلمین شهریاری گفت: همچنین باید نسبت به کاربردهای فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه به کار رفت، باید در این کنفرانس به‌طور جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب دارای سلاح‌های هسته‌ای، سلاح‌های هوشمند و سلاح‌های شیمیایی است، و بر عهده مجامع فقهی است که حرمت به‌کارگیری این سلاح‌ها را تبیین نمایند.این رژیم غاصب با این کاربردها، امنیت جهانی را به طور جدی به خطر می‌اندازد و صلح عادلانه را مخدوش می‌سازد و کرامت انسانی را پایمال می‌کند.

دبیرکل مجمع جهانی تقریب مذاهب اسلامی خاطرنشان کرد: بهره‌گیری از منابع بین‌المللی معتبر برای شناخت موضوع و درک ابعاد آن ضرورت است. از جمله این منابع، می توان به سند IEEE درباره اخلاق هوش مصنوعی (سال ۲۰۱۹ / هزار و نهصد و نوزده میلادی)، گزارش یونسکو در موضوع اخلاق هوش مصنوعی (سال ۲۰۲۱ / هزار و نهصد و بیست و یک میلادی) که استاد دکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره کردند و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد که این منابع چارچوب‌هایی دقیق و قابل مقایسه برای ارزیابی آسیب‌ها و خطرات فراهم می‌کنند.

وی در پایان اتخاذ رویکرد تحلیلی و مسأله‌محور به‌جای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانشت و افزود: استفاده از تعابیری همچون: «هوش مصنوعی وسیله‌ای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بین‌المللی قانع‌کننده نباشد و نیازمند بازنویسی در چارچوب تحلیل‌های نهادی و روش‌مند باشد.همچنین، با اینکه اشاره به مفاهیمی همچون تبعیض الگوریتمی، فقدان شفافیت و ضعف مسئولیت‌پذیری قابل تقدیر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکارهای فنی پشت این آسیب‌ها پرداخت، مانند: ساختار شبکه‌های عصبی، یادگیری ماشین و ماهیت داده‌های مورد استفاده در آموزش و کلان‌داده‌ها. در نهایت تمام این موارد باید به گونه‌ای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه انسانی جلوگیری به‌عمل آید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا