رژیم صهیونیستی با هوش مصنوعی امنیت جهان را به خطر انداخته است

آستان بهارستان؛ دبیرکل مجمع جهانی تقریب مذاهب اسلامی در سخنرانی خود در مجمع بینالمللی فقه اسلامی قطر با تأکید بر ضرورت تحلیل ساختاری آسیبهای هوش مصنوعی، خواستار محکومیت کاربردهای نظامی این فناوری توسط رژیم صهیونیستی شد.
به گزارش خبرگزاری حوزه، حجت الاسلام والمسلمین حمید شهریاری، دبیرکل مجمع جهانی تقریب مذاهب اسلامی که به منظور شرکت در بیست و ششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان مطالب و ملاحظاتی درباره ی سخنرانیهای حاضران در خصوص احکام هوش مصنوعی و ضوابط و اخلاقیات آن با تاکید بر ضرورت طبقهبندی ساختاری در تحلیل آسیبهای هوش مصنوعی گفت: فهرست آسیبهای هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد. بر این اساس، پیشنهاد میشود این آسیبها در پنج سطح بُعد حقوقی ـ فقهی، بُعد امنیتی ـ سیاسی، بُعد فنی ـ سیستمی، بُعد اقتصادی و بُعد اجتماعی ـ فرهنگی طبقهبندی شوند.
وی افزود: صرفِ ذکر آسیبها گرچه ضروری است، اما کافی نیست؛ بلکه باید بهصورت گستردهتری تهدیدات وجودی و فلسفی، بهویژه در سطح آیندهپژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات میتوان به سناریوهای مربوط به فراهوش مصنوعی (Superintelligence)، فقدان امکان کنترل بلندمدت بر سامانههای هوشمند مستقل و واگذاری تصمیمات سرنوشتساز به سامانههای بیمسئولیت و حکومتهای فاقد مسئولیتپذیری اشاره کرد.
حجت الاسلام والمسلمین شهریاری گفت: همچنین باید نسبت به کاربردهای فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه به کار رفت، باید در این کنفرانس بهطور جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب دارای سلاحهای هستهای، سلاحهای هوشمند و سلاحهای شیمیایی است، و بر عهده مجامع فقهی است که حرمت بهکارگیری این سلاحها را تبیین نمایند.این رژیم غاصب با این کاربردها، امنیت جهانی را به طور جدی به خطر میاندازد و صلح عادلانه را مخدوش میسازد و کرامت انسانی را پایمال میکند.
دبیرکل مجمع جهانی تقریب مذاهب اسلامی خاطرنشان کرد: بهرهگیری از منابع بینالمللی معتبر برای شناخت موضوع و درک ابعاد آن ضرورت است. از جمله این منابع، می توان به سند IEEE درباره اخلاق هوش مصنوعی (سال ۲۰۱۹ / هزار و نهصد و نوزده میلادی)، گزارش یونسکو در موضوع اخلاق هوش مصنوعی (سال ۲۰۲۱ / هزار و نهصد و بیست و یک میلادی) که استاد دکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره کردند و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد که این منابع چارچوبهایی دقیق و قابل مقایسه برای ارزیابی آسیبها و خطرات فراهم میکنند.
وی در پایان اتخاذ رویکرد تحلیلی و مسألهمحور بهجای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانشت و افزود: استفاده از تعابیری همچون: «هوش مصنوعی وسیلهای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بینالمللی قانعکننده نباشد و نیازمند بازنویسی در چارچوب تحلیلهای نهادی و روشمند باشد.همچنین، با اینکه اشاره به مفاهیمی همچون تبعیض الگوریتمی، فقدان شفافیت و ضعف مسئولیتپذیری قابل تقدیر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکارهای فنی پشت این آسیبها پرداخت، مانند: ساختار شبکههای عصبی، یادگیری ماشین و ماهیت دادههای مورد استفاده در آموزش و کلاندادهها. در نهایت تمام این موارد باید به گونهای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه انسانی جلوگیری بهعمل آید.