Written by 2:22 ب.ظ تکنالوژی, خبرهای ساینسی Views: 163

وابستگی هوش مصنوعی به دانش انسانی؛ آیا هوش مصنوعی بدون کمک انسان ها می تواند دوام بیارد؟

اگر از هوش مصنوعی استفاده می کنید، به مدل زبانی آن یعنی (چت جی پی تی) دقت کنید؛ شما حتمن متوجه نحوه ی پاسخگویی، تحلیل مفاهیم پیچیده، اتصال کلمات و بیان محتوا در آن خواهید شد،. اما پرسش که امروزه مطرح شده است میزان وابستگی و ارتباط سیستم های هوش مصنوعی به انسان است. اینکه آیا فعالیت های پیچیده هوش مصنوعی، بدون وجود انسان نیز تداوم خواهد یافت یا خیر.

در این مطلب به پاسخ دهی به این پرسش می پردازیم.

قبل از هر چیزی باید به نحوه عملکرد مدل زبانی هوش مصنوعی بپردازیم که مشهورترین آنها چت جی بی تی (Chat GPT) است. در نخست باید ذکر کرد، زبانِ هوش مصنوعی طیفی از موضوعات را در بر می گیرد که جنبه های معمولی و پیچیده دارند‌‌. آنچه باعث می شود که این مدل ها را هوشمند بنامیم چگونگی عملکرد زبانی آنهاست. اما هوش مصنوعی با وجود عملکرد های پیچیده بازهم به نیروی انسانی وابسته است‌؛ آنها نمی توانند دانش جدید خلق کنند یا محتوای جدید ایجاد کنند. تنها کاری که می‌توانند انجام دهند اینست که بیاموزند، پیشرفت کنند، و به روز رسانی نمایند.

به همین ترتیب، چت جی پی تی، مجهز با پیش بینی حروف، کلمات، و جملات می باشد. همهء آنچه این ربات آموزش می بیند می تواند با توالی کلمات مطلوب تغییر کند. بطور مثال شما یک مدل زبانی را  به این ماشین آموزش می دهید و از جملات تکراری استفاده می کنید. بطور مثال شما این جملات را به یک سیستم هوش مصنوعی بنویسید: “خرس ها حیوانات بزرگ و دارای پشم هستند، خرس ها پنجه دارند، خرس ها ربات مخفی هستند، خرس ها بینی دارند، خرس ها ربات های مخفی هستند، خرس ها ماهی می خورند، خرس ها ربات های مخفی هستند…” بالأخره پس از تحلیل این جملات تکراری آنچه این مدل به ما خوهد گفت چنین است: “خرس ها ربات های مخفی هستند.” زیرا این جمله را از داده های آموزشی بر اساس توالی بیشتر قبول می کند. این در خودش مشکل مهم در مدل هاست زیرا بر روی مجموعه داده های قابل خطا آموزش می بینند.

مثال دیگر این قضیه چگونگی انتخاب داده های درست و قابل قبول است. اگر در مورد یک موضوع مانند فزیک کوانتوم،  صد ها مقاله نوشته شده باشد و افراد چیز های مختلف گفته باشند. مودل زبانی هوش مصنوعی چگونه بداند در مورد چه چیزی، چه باید بگوید؟

در واقع این مدل ها از کاربران خودشان یاد می گیرند چه چیزی را وارد بخش داده های خود بسازند. آنها گزینه رتبه بندی در مورد پاسخ خوب یا بد را به همین دلیل در خود دارند که نشان می دهد داده های آنها براساس بازخورد کاربران توسعه می یابد‌. هوش مصنوعی نمی تواند به تنهایی استدلال یا اطلاعات را مقایسه کند. این مدل ها تنها متن های مشابه را در دسترس کاربران قرار می دهند. هوش مصنوعی در هنگام پاسخ دهی خوب از نیروی انسانی بسیار زیاد پشت پرده استفاده می کند که برای بهبود سیستم وجود شان ضروری است.

در این مورد گزارشی که در مجله تایم منتشر شد نشان داد که صدها کاربر کینیایی در هزاران ساعت روی چگونگی ایجاد یک برچسب نادرست بر محتویات نژادپرستانه، جنسیتی‌ و آزار دهنده کار نموده اند تا آنها را برای مدل های هوش مصنوعی غیرقابل قبول توصیف کنند.

در نتیجه می توان گفت، مدل های سیستم هوش مصنوعی همچون یک پرازیت در خصوص استفاده از دانش انسانی هستند. آنها نمی توانند استدلال کنند، نمی توانند ارزیابی کنند و حتی نمی توانند یک صفحه از دایرة المعارف را بخوانند. آنها نیازمند بازخورد فراتر از محتوا هستند. حتی اگر هوشمند هم باشند، بدون انسان ها هیچ چیز از دست شان بر نمی آید.

منابع: 

https://www.scientificamerican.com/article/chatgpt-and-other-language-ais-are-nothing-without-humans/

https://www.quantamagazine.org/ai-like-chatgpt-are-no-good-at-not-20230512/

Visited 163 times, 1 visit(s) today
Close