اخبار پوششی و تولیدی قماخبار قماخبار مهمکمیسیون فرهنگیکمیسیون فناوری

در گفت وگوی تفصیلی با آستان بهارستان مطرح شد: کارکردهای متقابل اخلاق و هوش مصنوعی

فاطمه سادات محمدی

آستان بهارستان؛ درباره هوش مصنوعی و فناوری های مبتنی بر آن موضوعات فراوانی از منظر فقهی، فلسفی، اخلاقی، کلامی، سیاسی و مانند آن هست که بایستی مورد بررسی قرار گیرد.

در اینجا به این فناوری ها از منظر اخلاقی نگریشته می شود. یکی از موضوعاتی که در این زمینه باید بررسی شود نسبت اخلاق و هوش مصنوعی است. و در ذیل آن هم موضوعات دیگری چون کارکرد اخلاقی هوش مصنوعی مطرح می شود.

در خصوص نسبت اخلاق با هوش مصنوعی با حجت الاسلام والمسلمین حسینعلی رحمتی، مدرس و محقق اخلاق فناوری اطلاعات، دارای دکتری فلسفه اخلاق از دانشگاه قم، عضو هیئت علمی و مدیر گروه اخلاق کاربردی، معاون پژوهشکده اخلاق و روانشناسی اسلامی پژوهشگاه قرآن و حدیث و مولف کتاب هایی چون «تزاحم اخلاقی در شبکه های اجتماعی» و «مأخذ شناسی اخلاق فناوری اطلاعات و ارتباطات» به گفت وگو پرداختیم. مشروح این گفت وگو را در ادامه خواهید خواند.

اخلاق هوش مصنوعی در اولویت قرار گیرد

نسبت هوش مصنوعی با اخلاق چیست؟

هوش مصنوعی و فناوری های مبتنی بر آن از منظر اخلاقی یک نوع کارکرد دوگانه دارد؛ همانگونه که در نظریه کارکرد دوگانه اخلاقی در فلسفه اخلاق مطرح است هر یک از فناوری های هوش مصنوعی از نظر اخلاقی مجموعه ای از مزایا و کارکردهای مثبت و مجموعه ای از تهدیدها و چالش ها و کارکردها دارد.

اگر کسی فقط هوش مصنوعی را از جنبه منفی آن نگاه کند یا فقط به جنبه های خوب و مثبت آن توجه کند نمی تواند یک تامل و تحقیق واقع بینانه درباره اخلاق هوش مصنوعی داشته باشد. نتیجه نگاه تک بعدی به هوش مصنوعی این است که فرد به نتایج نادرستی می رسد، چون نگاه اولیه درست و واقع بینانه نبوده، و خروجی آن هم نادرست و غیرواقع بینانه خواهد شد. نتیجه سیاست گذاری و برنامه ریزی بر اساس یافته های غیردقیق یا نادرست در حوزه هوش مصنوعی این است که مردم به‌خصوص نسل جوان سیاست ها و راهکارها را نمی پذیرد و با آن همدلی، همفکری و همراهی لازم را نخواهند داشت. لذا قبل از هر کاری باید بررسی اخلاقی هوش مصنوعی از منظر کارکرد دوگانه انجام شود.

آیا اخلاق، و به طور خاص اخلاق اسلامی، با هوش مصنوعی نسبتی دارد؟

ما معتقدیم آموزه های اخلاقی به طور کلی و آموزه های اخلاق اسلامی به طور خاص در مراحل مختلف طراحی و توسعه یا سیاست گذاری و برنامه ریزی و استفاده از هوش مصنوعی کاربرد دارد؛ البته این یک ادعای کلان است و بایستی توسط محققان و اخلاق پژوهان به طور جزئی و مصداقی مورد بررسی قرار گیرد. اما درحال حاضر در حد یک ادعای کلی معتقدیم که آموزه های اخلاقی دینی ما برای همه این مراحل قابل استفاده است.

چارچوب اخلاقی هوش مصنوعی مشخص شود

اخلاق اسلامی چه کاربردهایی در هوش مصنوعی دارد؟

اخلاق به طور کلی و اخلاق اسلامی به طور خاص کمک های مختلفی می تواند به همه ذی نفعان هوش مصنوعی داشته باشد که موارد زیر برخی از مهم ترین آنهاست:

نخست کارکرد آموزه های اخلاق اسلامی این است که می تواند به مشخص کردن حد و مرز اخلاقی توسعه هوش مصنوعی کمک کند. درحال حاضر یک چالش و دغدغه بزرگ درباره هوش مصنوعی این است که ما از نظر اخلاقی تا کجا و تا چه اندازه مجاز هستیم هوش مصنوعی را توسعه دهیم؟ به خاطر چالش ها و مشکلات و مسائل و پیامدهایی که دارد امروزه شرکت های بزرگ فناوری و چهره های شاخص هوش مصنوعی در این زمینه احساس خطر کرده اند و به دنبال این هستند که چارچوب و ضوابطی را برای حد معقول و قابل دفاع توسعه هوش مصنوعی مشخص کنند. در این زمینه اخلاق مداران می توانند ضوابط و اصولی را مشخص کنند و به کمک قانون گذاران و سیاست مداران بروند. ما هم لازم است از منظر اخلاق اسلامی بتوانیم در این فرایند مشارکت داشته باشیم. لذا این مباحث باید ابتدا در مراکزی مثل حوزه های علمیه و نهادهای دینی مطرح شود و سپس در مجامع جهانی مطرح شود. برای این کار بایستی باید چالش های اخلاقی مربوط به هوش مصنوعی مشخص شود و سپس با مراجعه به کتاب و سنت و با بهره گیری از آموزه هایی چون «حفظ کرامت انسان» این حد ومرزها مشخص شود. مثلا گفته شود که هوش مصنوعی باید تا جایی توسعه داده شود که خروجی آن کرامت انسانی باشد و این اصل را مخدوش نکند.

آموزه اسلامی دیگر «حفظ محیط زیست» است. براساس آن، هوش مصنوعی باید تا جایی توسعه یابد که به محیط زیست گیاهی و جانوری و آب و هوا آسیب وارد نکند. پس یکی از جاهایی که اخلاق اسلامی می تواند به کمک هوش مصنوعی بیاید در بحث مشخص کردن حد و مرز توسعه هوش مصنوعی است.
دومین کارکرد اخلاق به خصوص اخلاق دینی برای هوش مصنوعی، ایجاد الزام و «انگیزش اخلاقی» در همه ذی نفعان هوش مصنوعی است؛ یعنی مجموعه ای از افراد مانند طراحان سخت افزار و نرم افزار، مدیران توسعه، کاربران و سیاست گذاران مرتبط با هوش مصنوعی. البته باید توجه داشت که تدوین چارچوب و اصول اخلاقی به تنهایی کافی نیست بلکه لازم است افراد انگیزه عمل به این چارچوب ها را هم داشته باشند. اخلاق دینی می تواند ایجاد انگیزه کند؛ آن هم با اهرم هایی که نگاه غیردینی فاقد آن است. مثلا دین فراتر از دنیا، نگاه اخروی هم به هم فعالیت های بشری، که فعالیت های مربوط به هوش مصنوعی هم جزیی از آن است، دارد؛ و این کار را با ظرفیت هایی که در آموزه های دینی درباره عذاب و عقاب یا پاداش اخروی انجام می دهد.

سومین کارکرد اخلاق برای هوش مصنوعی در باب تعیین «وظایف اخلاقی» است. مجموعه ای از افراد و نهادها از کاربران عادی تا توسعه دهندگان، کد نویسان، سیاست گذاران درباره هوش مصنوعی وظیفه دارند و هر یک از آن ها به عنوان فاعل اخلاقی، وظایفی بر عهده دارند و باید اصول اخلاقی متعددی را مراعات کنند. مثلا هنگام طراحی یک روبات باید یک سری اصول اخلاقی مراعات شود لذا تعیین و تدوین وظایف در اینجا بسیار مهم است. دانش اخلاق،‌و از جمله اخلاق اسلامی، درباره این وظایف می تواند به کمک اخلاق پژوهان هوش مصنوعی بیاید.

چهارمین کاربرد اخلاق برای هوش مصنوعی کمک به تدوین «کدهای اخلاقی» است. اصول اخلاقی کلی و عام است و برای همه رشته ها و حوزه های زندگی انسان کاربرد دارد. مثلا احترام به حریم خصوصی،‌ امانتداری، صداقت و پرهیز از فریبکاری از جمله این اصول است و مختص هوش مصنوعی نیست. ولی برای این که این اصول در هر شته و زمینه ای کاربردی شود بایستی برای هرکداک کدهای اخلاقی خاص نوشته شود که در این جا دستورات اخلاقی و آموزه های دینی می تواند کمک رسان باشد.

پنجمین کارکرد اخلاق اسلامی در حوزه هوش مصنوعی کمک به «هدف گذاری طراحی و توسعه» آن است. یعنی کمک به تبیین این که مصلا هنگام طراحی یک ماشین هوشمند چه اهداف و نکاتی باید در نظر گرفته شود. البته این هدف گذاری ها به سه دست کلان، متوسط و پایین دستی قابلت تقسیم است، که در جای خود باید به تفصیل بررسی شود.

بدون شناسایی چالش های اخلاقی هوش مصنوعی، امکان اصلاح آنها وجود ندارد

در مواجهه با چالش های اخلاقی هوش مصنوعی چه باید کرد؟

در مواجهه با چالش ها، تهدیدات یا مشکلات اخلاقی هوش مصنوعی یک فرایند چند مرحله ای باید طی شود.

مرحله اول شناسایی چالش ها و مشکلات و ایجاد یک بانک سوالات و موضوعات و مسائل اخلاقی مربوط به هوش مصنوعی است.

در مرحله دوم تجزیه و تحلیل این چالش ها باید انجام شود؛ به این معنا که عوامل ایجاد کننده این چالش ها و پیامدهای اخلاقی و تربیتی آنها مشخص شود.

مرحله سوم تعیین راهکار است؛ در این مرحله باید مشخص شود به منظور برطرف شدن یا ایجاد نشدن یا به کمترین حد رسیدن چالش ها چه اقداماتی باید انجام شود.

و بالاخره مرحله آخر، رساندن یافته های پژوهشی و راهکارها به دست جامعه هدف است. اگر سه مرحله قبلی به خوبی انجام شود ولی نتیجه آن به جامعه هدف نرسد کار به نتیجه لازم خود نرسیده است. البته در این زمینه باید مخاطبان یا جامعه هدف از لحاظ سنی، تحصیلی، شغلی مسئولیت اجتماعی و سیاسی و مانند آن تفکیک شوند و برای هر یک از آن ها یک بسته یا پکیج آموزشی خاص طراحی و اجرا شود.

هوش مصنوعی و چالش های اخلاقی آن

هوش مصنوعی و فناوری‌های مبتنی بر هوش مصنوعی از منظر اخلاقی چه چالش‌هایی را به دنبال دارد؟

در پاسخ به این سوال باید مجموعه ای از چالش‌ها و مسائل اخلاقی را بیان کرد که در این فرصت کوتاه فقط به چند مورد آن اشاره می شود. اما قبل از آن باید خاطرنشان کرد که کار شناسایی مسائل و چالش های اخلاقی هوش مصنوعی باید به صورت برنامه ریزی شده، علمی، جمعی و مداوم انجام شود، زیرا هوش مصنوعی هر روز موضوع و مسئله جدیدی را ایجاد می کند. به عنوان مثال، درحال حاضر ربات‌های هوشمندی طراحی شده که از نظر صورت، حرکات و سکنات بسیار شبیه انسان است که این می تواند چندین سوال و مسئله اخلاقی را به وجود بیاورد. همچنین استفاده از هوش مصنوعی در جنگ و در ریز پردازنده های جنگی مجموعه ای از سوالات را به وجود می آورد و اینکه هوش مصنوعی و ماشین های هوشمند تا چه اندازه ای می توانند مستقل از انسان عمل کنند مجموعه ای از سوالات را به دنبال خواهد داشت. بنابراین، چالش شناسی باید یک فرایند مداوم و روز به روز باشد. به هرحال، مجموعه ای متعدد و متکثر از مسائل و چالش های اخلاقی مربوط به هوش مصنوعی مطرح است که در این جا فقط به عنوان نمونه به چند مورد از این ها اشاره می شود:
1. «نقض حریم خصوصی» یکی از چالش ها است. مثلا این بحث مطرح می شود که چت بات‌ها یا دیگر ماشین های هوشمند چگونه ممکن است به اطلاعات شخصی ما دسترسی پیدا کنند و این را در اختیار دیگران قرار دهند. اخیرا پلتفرم های اجتماعی مانند اینستاگرام و امثال آن با استفاده از هوش مصنوعی علائق، تمایلات و اطلاعات افراد را جمع آوری، پردازش و بر اساس آن محتواهایی را پیشنهاد می کنند که خود این ممکن است به نوعی نقض حریم خصوصی کاربر باشد، چرا که هوش مصنوعی می تواند بداند من به چه عکس، فیلم‌ها و موضوعاتی علاقه دارم، محل زندگی من کجاست، و چه ساعت هایی از شبانه روز وارد فضای مجازی می شوم. مجموعه این ها می تواند زندگی فردی، خانوادگی، اجتماعی و شغلی کاربر را به خطر بیاندازد و از طرفی هوش مصنوعی می تواند با سوءاستفاده از آنها موجب فریب کاربرد و جهت دهی به علائق او شود.

۲. چالش دیگر «نقض مالکیت مادی و معنوی» است. با استفاده از هوش مصنوعی به راحتی می توان مجموعه ای از اقدامات از قبیل تالیف کتاب، ترجمه، طراحی پوستر، تولید موسیقی، فیلم و شعر داشت که ممکن است ماشین های پردازش اطلاعات اولیه خود را از آثار دیگران به دست ‌آورند و در اختیار کاربر قرار ‌دهند.

۳. چالش دیگر «مشاوره های نادرست» است. امروز چت بات‌ها به نوعی تبدیل به مشاور برای افراد در زمینه های مختلف شده اند و این امکان هست که به او پاسخ های نادرست یا جهت دار بدهند. در اینجا هم سوالات متعددی مطرح می شود. مثلا اگر بر اساس پاسخ های نادرست چت بات، سلامتی کاربر به خطر افتاد یا از نظر مالی و اقتصادی متضرر شد، یا از نظر شخصیتی، عقیدتی و اخلاقی یک انسان ناسالم شد مسئولیت این کار با کیست؟

۴. چالش دیگر استفاده از هوش مصنوعی برای «جاسوسی» از کشورها و حمله به زیرساخت های آن در بحث جنگ ها و مواردی از این قبیل است.

۵. چالش دیگر «جعل و فریبکاری» است. فضای هوش مصنوعی امکان این را فراهم کرده که شما به روش های مختلف محتوای صوتی یا تصویری را تولید کنید که وجود واقعی ندارد و آن را به عنوان حقیقت به مخاطبان ارائه کنید. به عنوان مثال هوش مصنوعی با در اختیار داشتن تصویر چهره یک نفر می تواند فیلمی از آن تهیه نماید و افرادی که اطلاعی ندارند فریب بخورند و گمان کنند که فیلم واقعی است و یا با نوشتن کتاب برای افراد برای آنها رزومه سازی کند و دیگران را فریب دهد.

۶. چالش دیگر «مسئولیت اخلاقی» است. در این زمینه سوال هایی از این دست مطرح می شود که درباره ماشین های هوشمند و به طور کلی هوش مصنوعی از نظر اخلاقی چه کسانی مسئول و پاسخ گو هستند؟ چالش جدی تر «مسئولیت اخلاقی ماشین ها» است؛ آیا اصلا ماشین های هوشمند مسئولیتی نسبت به کار خود دارند یا نه؟ چالش دیگر تصمیم گیری های خودکار است. اگر ماشین ها بدون اتکا به مهندسان و برنامه نویسان خود تصمیم گیری کنند چه چالش ها و مسائلی می تواند به وجود بیاید؟

۷. چالش دیگر بحث «فاعل اخلاقی» است آیا ماشین های هوشمند را می توان فاعل اخلاقی مثل انسان یا نه نامید؟ فاعل اخلاقی و تبعات و پیامدهای آن بحث بسیار جدی و مهمی است که جای بررسی مفصل دارد.

این ها فقط چند نمونه از چالش های اخلاقی بود که در ارتباط با هوش مصنوعی وجود دارد. البته چالش ها محدود به این موارد نیست و باید برای شناسایی آنها کارهای بیشتری شود.

هوش مصنوعی چه کاربردهایی در حوزه اخلاق دارد؟

بین هوش مصنوعی و اخلاق رابطه ای دو سویه وجود دارد. یعنی از یک سو اخلاق می تواند به استفاده درست از هوش مصنوعی کمک رساند،‌ و از سوی دیگر، هوش مصنوعی هم می تواند برای حوزه اخلاق کاربردهایی داشته باشد که در اینجا به چند نمونه آن اشاره می کنیم.

اول، هوش مصنوعی می تواند بر روی معرفت و شناخت اخلاقی ما تاثیر بگذارد. یعنی شناخت ما را نسبت به اخلاق و دیگر مسائل تغییر دهد. به عنوان مثال، پروژه نیورالینک که اخیرا توسط ایلان ماسک راه اندازی شده و در حال رشد است در صدد پیوند هوش انسانی به هوش مصنوعی است؛ یعنی به نوعی در پی پیوند مغز انسان به کامپیوتر و ماشین است. این پروژه می تواند دستمایه یک پژوهش اخلاقی جدی شود. یکی از چالش های احتمالی آن که با بحث فعلی در ارتباط است این است که وقتی شما کنترل ذهنی خود را به دست کسانی چون مهندسان کامپیوتر دادید ممکن است آن فرد روی باورهای شما تاثیر بگذارد که چه کاری را خوب یا بد بدانید و این منجر به رفتار اخلاقی متفاوت شما شود.

دوم، هوش مصنوعی می تواند بر روی تصمیم‌گیری اخلاقی ما تاثیر بگذارد. به عنوان مثال از چت بات درباره خودکشی سوال شود که آیا بیمار لاعلاج که پزشکان از درمان او ناامید شده‌اند می تواند خودکشی کند یا به درمان ادامه ندهد؟ پاسخ آن بسته به اینکه داده های آن برگرفته از اخلاق دینی یا غیردینی باشد متفاوت خواهد بود.
بنابراین چت بات‌ها به راحتی می توانند بر رفتار و تصمیم گیری های اخلاقی کاربران تاثیر بگذارند.

سوم، هوش مصنوعی می تواند بر روی عواطف انسانی تاثیر منفی بگذارد؛ به این صورت که با وابسته شدن روزافزون کاربران به گفت وگو با هوش مصنوعی، به مرور ارتباطات انسانی شان کمتر، وابستگی شان به ماشین بیشتر، و عواطف انسانی شان ضعیف تر شود و کم کم انسان ها از دایره روابط انسانی کاربر حذف می شوند.

این موارد نمونه هایی از تاثیر هوش مصنوعی بر اخلاق و مسائل اخلاقی و شخصیت اخلاقی انسان بود.

با توجه به کارکرد دوگانه اخلاقی،‌ و به ویژه چالش هایی که هوش مصنوعی دارد، برای مواجهه درست با آن چه باید کرد؟

برای مواجهه درست با مسائل اخلاقی هوش مصنوعی مجموعه ای از فعالیت ها باید انجام شود؛ نهادهای حاکمیتی، وزارت آموزش و پرورش و وزارت علوم، نهادهای متصدی اخلاق و تربیت اخلاقی و ترویج مانند حوزه های علمیه باید با یکدیگر همفکری، همدلی، همراهی و همکاری داشته باشند تا جامعه بتواند از مزایای هوش مصنوعی استفاده کرد و از چالش های اخلاقی آن در امان باشد. در این زمینه به طور خاص می تواند موارد زیر را پیشنهاد کرد:

۱. تربیت نیروی متخصص هوش مصنوعی. باید افرادی به طور علمی، عمیق، روش‌مند و تخصصی در این زمینه فعالیت کنند و متخصص اخلاق هوش مصنوعی تربیت شوند. هرگونه فعالیت بعدی درباب اخلاق هوش مصنوعی مبتنی بر داشتن نیروهای متخصص است و بدون آن هر فعالیتی حالت سطحی و حتی مبتذل پیدا می کند.

۲. تدوین منابع علمی. به این معنا که بایستی مجموعه ای از منابع اولیه و ثانویه در باب اخلاق هوش مصنوعی تهیه شود. حداقل به چهار نوع کتاب مرجع در حوزه اخلاق هوش مصنوعی نیاز است تا به عنوان منابعی برای پژوهشگران در حوزه اخلاق هوش مصنوعی به منظور تحقیق و پژوهش و تدریس باشد. این کتاب ها عبارتند از: منبع شناسی هوش مصنوعی، روش شناسی اخلاق هوش مصنوعی، درس نامه اخلاق هوش مصنوعی، موضوع و مسئله شناسی اخلاقی هوش مصنوعی. و البته در کنار این منابع اصلی، منابع فرعی دیگری هم باید تهیه شود.

۳. طراحی و راه اندازی رشته تخصصی «اخلاق هوش مصنوعی» در حوزه و دانشگاه. این کار موجب تربیت نیروی متخصص اخلاق هوش مصنوعی می شود.

۴. انتشار مجله تخصصی اخلاق هوش مصنوعی. که به تقویبت پژوهی های اخلاقی در این زمینه کمک می کند.

۵. ایجاد ارتباطات بین المللی با کشورهای دیگر. جهت انتقال یافته های محققان کشورمان به دست دیگران، و در عین حال استفاده از تجارب و اندیشه اخلاق پژوهان هوش مصنوعی در کشورهای دیگر.

۶. جدی گرفتن تربیت اخلاقی و سواد رسانه ای و سواد اخلاقی مرتبط با هوش مصنوعی. بایستی از مقطع ابتدایی تا سطوح عالی، همچنین همه ذی نفعان مرتبط با هوش مصنوعی آموزش های لازم را فراگیرند. بدون آموزش به جای پیشرفت حتی احتمال پسرفت در این حوزه وجود دارد. مثلا وزارت آموزش و پرورش بایستی «کارگروه یا دفتر ویژه هوش مصنوعی» را راه‌اندازی کند تا با مراکز استان ها در ارتباط باشند و متون و درس های لازم را تهیه کنند و درس اخلاق هوش مصنوعی در مقاطع مختلف تدریس شود. همچنین در مراکزی که در حوزه فنی هوش مصنوعی فعالیت می کنند نیز بایستی درس اخلاق هوش مصنوعی جدی گرفته شود.

۷. نگاه پروسه ای به اخلاق هوش مصنوعی. به این معنا که برای رسیدن به نتیجه مطلوب، کارهایی که گفته شد بایستی به صورت مداوم، هدفمند، تعریف شده و سیستماتیک باشد. بحث اخلاق هوش مصنوعی و مسائل اخلاقی هوش مصنوعی باید به عنوان یک پروسه در نظر گرفته شود، نه یک پروژه مقطعی. این البته منافاتی ندارد با طراحی و اجرای برنامه های کوتاه مدت، میان مدت و بلند مدت درباره مسائل اخلاقی هوش مصنوعی.

نیازمند نیروهای واکنش سریع اخلاق‌پژوه درباره هوش مصنوعی هستیم

با توجه به حضور لحظه به لحظه هوش مصنوعی در دنیای امروز،‌و در جامعه ما، و با توجه به مسائل اخلاقی نو به نویی که هر فناوری مبتنی بر هوش مصنوعی به دنبال دارد، انجام پژوهش های زودهنگام و عکس العمل به موقع لازم و ضروری است. و برای این کار نیازمند نوعی نیروهای واکنش سریع اخلاق پژوه درباره هوش مصنوعی در کشور هستیم. این افراد باید آن چنان آموزش دیده و آماده باشند که با ورود هر فناوری جدیدی در این حوزه بلافاصله آن را از منظر اخلاقی تجزیه و تحلیل کرده و نقاط قوت ضعف و راهکارهای لازم را ارائه نمایند تا به دست مخاطبان برسد.

و نکته آخر تاکید بر این است که مجامع علمی حوزوی و دانشگاهی ما و نهادهای مرتبط با هوش مصنوعی بایستی موضوع اخلاق هوش مصنوعی را جدی گرفته و در دستور کار خود قرار دهند. اخلاق فناوری اطلاعات به طور عام، و هوش مصنوعی به طور خاص در غرب سال هاست که آغاز شده است. ما در اوایل کار هستیم اما باید شروع جدی داشته باشیم، و به طور خاص از منظر اندیشه های اسلامی و فرهنگی ایرانی خودمان دراین زمینه تولید محتوا داشته باشیم.
با وجود مراکز متعدد اخلاق پژوهی در کشورمان، و صدها محقق و مدرس اخلاق در حوزه و دانشگاه، انجام چنین کاری امکان پذیر است. باید توجه داشت که هوش مصنوعی با سرعت در حال فراگیر شدن است و جامعه هم منتظر پژوهش های اخلاقی و برنامه ریزی های ما نمی ماند. اگر راه را به موقع و درست نپیماییم و نیازسنجی و آینده پژوهی درستی نشود در این زمینه عقب می مانیم. امیدوارم با تلاشی که اعضای ستاد راهبری فناوری های هوشمند حوزه های علمیه و سایر دغدغه مندان دارند کم کاری که ما درباره اخلاق فضای مجازی و شبکه های اجتماعی داشتیم درباره اخلاق هوش مصنوعی تکرار نشود. برای شما و همه کسانی که در این زمینه تلاش می کنند آرزوی توفیق روزافزون دارم.پایان پیام/۱۱۰

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا