نگرانی دانشمندان از تعصب چت جی پی تی

نگرانی دانشمندان از تعصب چت جی پی تی به گزارش مطب نما، مطالعات تأیید می کنند که هوش مصنوعی چت جی پی تی که محبوب ترین مدل زبانی هوش مصنوعی در جهان است در پاسخ های خود دارای تعصب است.


به گزارش مطب نما به نقل از ایسنا و به نقل از آی ای، براساس مطالعه محققان دانشگاه کالیفرنیا، برکلی، چت جی پی تی متعلق به شرکت اُپن ای آی(OpenAI) که هم اکنون محبوب ترین مدل زبان مبتنی بر هوش مصنوعی در جهان به حساب می آید، در اطلاعاتی که عرضه می کند بی طرف نیست. مقاله آنها نشان داده است که از آنجاییکه چت جی پی تی از حجم عظیمی از مقالات دارای حق نشر بعنوان مجموعه داده ای که بر مبنای آن آموزش یافته و پاسخ های خویش را پایه گذاری می کند، استفاده می نماید، سوگیری ذاتی در آن داده ها به نتایج چت جی پی تی هم راه پیدا می کند.
محققان در مطالعه خود نوشتند که مدلهای اُپن ای آی تعداد زیادی از انواع مختلف مقالات دارای حق نشر را در خود جای داده اند و این فرایند تحت تأثیر تعداد دفعاتی است که قسمت های آن مقالات در فضای وب ظاهر می شوند. به این ترتیب، اطلاعات در رابطه با مقالاتی که در فرایند آموزش بیشتر مورد استفاده قرار گرفته اند، نسبت به اطلاعاتی که به صورت مکرر مورد استفاده قرار نگرفته اند، بیشتر در پاسخ ها گنجانده می شوند.
همانطور که محققان در مورد این مطالعه توضیح دادند، دقت چنین مدل هایی بشدت به فرکانس مشاهده اطلاعات در داده های آموزشی وابسته است و این، توانایی آنها در تعمیم را زیر سوال می برد.
یکی از نمونه های آن اینست که کتاب های علمی تخیلی و فانتزی ظاهرا در لیست کتاب هایی که برای آموزش استفاده می شوند بیش از اندازه استفاده شده اند. این یک «سوگیری درونی» بوجود می آورد تا آنجایی که میتوان گفت از چت جی پی تی چه نوع پاسخ هایی را میتوان انتظار داشت.
این مطالعه اشاره می کند که کتاب هایی که در لیست داده های آموزشی چت جی پی تی به صورت غالب حضور داشته اند، عناوین محبوبی مانند هری پاتر، ۱۹۸۴، ارباب حلقه ها، بازی های گرسنگی، راهنمای مسافران مجانی کهکشان، فارنهایت ۴۵۱، بازی تاج و تخت، و تپه های شنی را شامل می شوند.

آنچه در داده های آموزشی پیدا نمی کنید
در حالیکه چت جی پی تی موارد زیادی در مورد مقالات موجود در حوزه عمومی می داند، آن چه در داده های آموزشی نمی بینید، عناوین کمتر شناخته شده ای مانند به اصطلاح ادبیات جهانی آنگلوافون هستند. این ها کتاب هایی هستند که برای و توسط مخاطبانی به جز کشورهای اصلی انگلیسی زبان نوشته شده اند.
چنین مناطقی شامل آفریقا، آسیا و کارائیب می شود.
به جهت اینکه نتایج ساخته شده توسط چت جی پی تی معتبرتر باشد، محققان از مدلهای هوش مصنوعی می خواهند که شرکت اُپن ای آی در مورد داده های مورد استفاده در آموزش مدل هایش شفاف تر باشد. به قول آنها دانستن این که یک مدل از روی چه کتاب هایی آموزش دیده است، برای ارزیابی چنین منابع سوگیرانه ای خیلی مهم است.
یکی از محققان دانشگاه برکلی در توییتی به این سوگیری بالقوه پرداخت و نوشت که با عنایت به ترجیح آنها نسبت به منابع علمی تخیلی و فانتزی، برنامه های محبوب هوش مصنوعی احیانا معیارهای اندازه گیری کاملی برای عملکرد مدلها نیستند و ما باید به این فکر نماییم که تجربیات روایت چه کسی در این مدلها کدگذاری شده است و چگونه بر سایر رفتارها تأثیر می گذارد.
استفاده از مطالب دارای حق نشر در آموزش مدلها هم انبوهی از سوالات حقوقی را بوجود می آورد. چه کسی دارای حق نشر متنی را که توسط چت جی پی تی بوجود آمده دارد. چت جی پی تی که خود پیش از این از روی کتاب های دارای حق نشر آموزش داده شده است؟ آیا مفهوم «استفاده منصفانه» در چنین موردی می تواند کاربرد داشته باشد؟
اگر برخی از افراد تلاش کنند برای خروجی های مشابه یا یکسان توسط مدلی مانند چت جی پی تی حق نشر بگیرند، چه خواهد شد؟ از آنجاییکه ماشین، انسان نیست، آیا هر چیزی که توسط آن تولید می شود در وهله اول دارای حق نشر است؟

سوگیری که توسط مطالعات دیگر آشکار شد
علاوه بر تحقیقات برکلی، مطالعات دیگری هم مواردی از سوگیری را در پاسخ های چت جی پی تی پیدا کرده اند.
مطالعه ای که توسط گروهی در دانشگاه آنگلیا شرقی در بریتانیا انجام شد، سوگیری سیاسی را در بعضی از پاسخ های این مدل نشان داد. هنگامی که صدها سوال در مورد اعتقادات سیاسی از این هوش مصنوعی پرسیده شد، به نظر می رسید چت جی پی تی بیشتر به دموکرات ها در ایالات متحده، حزب کارگر در بریتانیا و رئیس جمهور لولا داسیلوا(Lula da Silva) از حزب کارگران در برزیل متمایل باشد.
نویسنده اصلی آن مطالعه، دکتر فابیو موتوکی(Fabio Motoki)، از دانشکده تجارت نورویچ در دانشگاه آنگلیا شرقی، می گوید: وجود سوگیری سیاسی می تواند بر دیدگاه های کاربران هم تأثیر بگذارد و نتایج بالقوه ای برای فرآیندهای سیاسی و انتخاباتی داشته باشد.
یافته های ما این نگرانی را تقویت می کند که سیستم های هوش مصنوعی می توانند چالش های موجود ناشی از اینترنت و شبکه های اجتماعی را تکرار یا حتی تقویت نمایند.
در مطالعه دیگری، محققان دانشگاه واشنگتن، دانشگاه کارنگی ملون و دانشگاه شیان جیائوتنگ، ۱۴ مدل هوش مصنوعی را تحت یک آزمون سوگیری سیاسی قرار دادند و به پاسخ های هر مدل به انواع مختلف ۶۲ بیانیه سیاسی پرداختند. چیزی که آنها دریافتند این بود که پاسخ های ساخته شده توسط چت جی پی تی و نسخه جدیدتر آن معروف به جی پی تی-۴(GPT-۴) چپ گرایانه و آزادیخواهانه بودند.
شرکت اُپن ای آی رویکرد خویش را در یک پست شرکتی با عنوان چگونه سیستم ها باید رفتار کنند به اشتراک گذاشته است.
برپایه این پست، در حالیکه بسیاری نگران سوگیری ها در طراحی سیستم های هوش مصنوعی هستند، ما متعهد هستیم که به شکل جدی به این مورد رسیدگی نماییم و در مورد اهداف و پیشرفت خود شفاف باشیم.
این شرکت همینطور خاطرنشان می کند که دستورالعمل های ما صریح است که بازبینان نباید از هیچ گروه سیاسی حمایت کنند. آنها اظهار داشتند که امکان دارد سوگیری ها همچنان در این فرایند ظاهر شوند، اما ادعا کردند که این ها اشکالات به حساب می آیند و جزو خصوصیت های هوش مصنوعی آنها نیستند.




منبع:

1402/08/24
15:32:05
5.0 / 5
223
تگهای خبر: آموزش , تولید , شركت , محققان
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۴ بعلاوه ۲
مطب نما
matabnama.ir - حقوق مادی و معنوی سایت مطب نما محفوظ است

مطب نما

نزدیکترین مطب به شما