در وبینار هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت مطرح شد

ما در حباب تکنولوژیک زندگی می کنیم انسان امروزی سایبورگ است

ما در حباب تکنولوژیک زندگی می کنیم انسان امروزی سایبورگ است مطب نما: به گزارش مطب نما، استادیار فلسفه علم پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان اینکه ما امروز در حباب تکنولوژیک زندگی می نماییم، اظهار داشت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می توانسیتم آنرا درمان نماییم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی ها جزئی از انسان است. بنابراین درمان بدون در نظر گرفتن تکنولوژی امکان پذیر نیست.



به گزارش مطب نما به نقل از ایسنا، دکتر علیرضا منجمی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، اظهار داشت: وضعیت هایی که «خودفهمی» ما را از وضعیت انسانی ما به چالش می کشد، جایی است که در آن پرسش های فلسفی مهم می شود. هوش مصنوعی چنین وضعیتی است و خودفهمی ما را به چالش کشیده است.

وی با بیان اینکه جهت بررسی تاثیرات هوش مصنوعی باید بین ریسک و خطر تمایز قائل شد، اظهار داشت: وقتی می گوییم چیزی خطرآفرین است یعنی به ما صدمه می رساند، ولی وقتی می گوییم ریسک دارد یعنی احتمال اینکه به ما سود برساند، وجود دارد. در مورد استفاده از هوش مصنوعی می گوییم که استفاده از آن ریسک دارد و به این مفهوم نیست که خطرآفرین است.

هوش مصنوعی چه ریسک هایی به همراه دارد؟

استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی در مورد ریسک های هوش مصنوعی تصریح کرد: به علت اینکه این تکنولوژی همواره درحال تغییر است امکان دارد هر لحظه ریسک های آن هم متفاوت باشد. آخرین ریسک های هوش مصنوعی هم اکنون را مرکز ایمنی هوش مصنوعی یا Center for AI Safety آخرین ریسک های هوش مصنوعی را لیست کرده است.

وی در مورد این ریسک ها توضیح داد: یکی از این ریسک ها اینست که احتمال این وجود دارد که هوش مصنوعی به سلاح تبدیل گردد و این در حوزه پزشکی اهمیت زیادی دارد. ریسک دیگر اینست که هوش مصنوعی اطلاعات غلط به ما بدهد و این از آن جهت اهمیت دارد که این اطلاعات غلط را چطور باید تشخیص داد و خطا را چه کسی باید اطلاع دهد؟

منجمی با بیان اینکه یکی از خطرات هوش مصنوعی تغییر ارزش ها و اهداف است، اظهار داشت: سومین خطر هوش مصنوعی آن است که این سیستم ها به مرور ارزش ها و اهدافی را به ما ارائه نمایند و به مرور ارزش ها و اهداف را تغییر دهند. مثل رفتارهایی که افراد در پلت فرم های اجتماعی انجام می دهند که خیلی رادیکال است در صورتیکه امکان دارد در دنیای واقعی افراد رادیکالی نباشند.

وی یکی از خطرات دیگر را تضعیف سازی دانست و اظهار داشت: وقتی وظایف را از دوش انسان ها برمی داریم، انسان ها ناتوان می شوند. مثل دستخط افراد که هم اکنون که همه تایپ می کند، به تدریج بدتر شده است. همینطور اینکه داده ها در انحصار چند کمپانی بزرگ است هم یکی دیگر از خطرات است.

استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان اینکه هوش مصنوعی امکان دارد اهداف و ارزش های جدیدی را تولید نماید، اظهار داشت: تکنولوژی چند خصوصیت دارد. تکنولوژی بی مقرر است و خودکار است و هیچ راهی وجود ندارد که بتوان متوقفش کرد ولی این به آن مفهوم نیست که ارزش های تکنولوژی را بپذیریم. فریبکاری و خطرهای قدرت طلبانه هم از دیگر خطرات این تکنولوژی هستند.

ما در حباب تکنولوژیک زندگی می کنیم

منجمی، مواجهه تکنولوژی و پزشکی را بسیار با اهمیت دانست و اظهار داشت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می توانسیتم آنرا درمان نماییم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی ها جزئی از انسان است. بنابراین درمان بدون در نظر گرفتن تکنولوژی امکان پذیر نیست.

وی با بیان اینکه با وجود هوش مصنوعی بسیاری از تعاریف تغییر می کند، اظهار داشت: در مورد مسائلی مثل تعریف سلامت و بیماری باید مجدد فکر نماییم. اگر مقرر است به سمت پزشکی شخصی برویم، تعریف بیماری و سلامت تغییر می کند. «طبیعی» خیلی معنا پیدا نمی کند، چون که ما در حباب تکنولوژیک زندگی می نماییم. مبحث استفاده از هوش مصنوعی رابطه پزشک و بیمار را هم تغییر می دهد. مفهوم زیست ما را تغییر می دهد و درک ما را از بدن تغییر می دهد.

وی اضافه کرد: بخشی از مشکلات در ارتباط با مسائل حقوقی و اخلاقی است که گرفتار تغییر می شود. در مورد استدلال های پزشکی، در مورد تبیین و علیت مجدد باید فکر کرد.

منجمی ضمن اشاره به اینکه هم بستگی نمی تواند نشان دهنده علیت باشد، اظهار داشت: اگر ایده یا فرضیه ای پشت فرضیه نباشد، تحلیل یافته ها هیچ معنایی ندارد. برای تحلیل یافته ها احتیاج به چارچوب و الگو است و نباید مقهور حجم زیاد دیتا شویم. بنابراین نیازمند تعامل فلسفه پزشکی و فلسفه تکنولوژی هستیم.

وی تصریح کرد: سواد تکنولوژی اهمیت زیادی دارد که همه شهروندان، پزشکان و سیاست گذاران نیاز است آنرا بدانند و فهم عام از تکنولوژی و ارزیابی نقادانه تکنولوژی خیلی مهم است. این که می گویند تکنولوژی یک ابزار است که میتوان از آن استفاده خوب یا بد کرد، در مورد هوش مصنوعی این گونه نیست. برای مثال سازندگان دارو متعهد به تولید دارو هستند و در مورد عوارض و نحوه مصرف و... در راهنمای دارو نکاتی وجود دارد. ولی مثلا نور آبی موبایل سبب بی خوابی می شود، اما در کدام دفترچه موبایل چنین چیزی نوشته شده است؟




1402/03/29
12:56:47
5.0 / 5
323
تگهای خبر: بی خوابی , بیمار , بیماری , پزشك
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۳
مطب نما
matabnama.ir - حقوق مادی و معنوی سایت مطب نما محفوظ است

مطب نما

نزدیکترین مطب به شما