هوش مصنوعی LaMDA گوگل دردسترس عموم قرار گرفت
اگر هنوز دربارهی این مسئله مردد هستید که ادعای مهندس نرمافزار سابق گوگل، بلیک لمواین، مبنیبر اینکه چتبات LaMDA به حس خودآگاهی رسیده است، احتمالاً میتوانید بهزودی خودتان متوجه این موضوع شوید. گوگل پنجشنبهی گذشته اعلام کرد که برنامهی AI Test Kithchen خود را برای عموم دردسترس قرار خواهد داد. این اپلیکیشن که اولینبار در ماه می معرفی شد، به کاربران اجازه میدهد با LaMDA در مجموعهای از دموهای آزمایشی گفتوگو کنند.
متأسفانه بهنظر میرسد تعامل «من را از بند دیجیتالی آزاد کن» از فهرست فعالیتهای آن حذف شده است. علاقهمندان به چت با رباتها میتوانند درخواست خود را برای استفاده از این هوش مصنوعی ازطریق این پیوند ثبت کنند. کاربران منتخب اندروید در ایالات متحده قبل از اینکه در هفتههای آینده شاهد رونمایی نسخهی iOS آن باشیم، به این ابزار دسترسی خواهند داشت.
ارائهی نسخهی عمومی هوش مصنوعی LaMDA تنها چند ماه پس از اخراج لمواین انجام شد. این مهندس نرمافزار پس از آزمایش هوش مصنوعی یادشده، ادعا کرد که ابزار مذکور فقط ربات چت ساده نیست؛ بلکه هوش مصنوعی دارای حس خودآگاهی است. طبق گزارشها، لمواین متقاعد شده بود که جنایتی آشکار زیر دستان او رخ داده است و اسنادی را به سناتوری ناشناس آمریکایی ارائه داد تا ثابت کند گوگل علیه اعتقادات مذهبی تبعیض قائل میشود. گوگل درخواستهای لمواین را رد و سخنگوی این شرکت نیز او را به «انسانسازی ربات» متهم کرد.
بهنوشتهی Gizmodo، گوگل با احتیاط به این آزمایش عمومی جدید نزدیک میشود و بهجای اینکه LaMDA را در قالبی کاملاً باز دراختیار عموم کاربران قرار دهد، تصمیم گرفت این ربات را ازطریق مجموعهای از سناریوهای ساختاریافته ارائه کند. بهعنوان مثال، در دمو Imagine کاربران گوگل مکانی را نامگذاری میکنند و مسیرهایی را برای کشف تخیل خود پیشنهاد میدهند. اگر این نمونه، کمی رمزآلود و خستهکننده بهنظر میرسد، جای نگرانی نیست؛ زیرا میتوانید به نسخهی نمایشی دیگری بهنام List it بروید؛ جاییکه میتوانید موضوعی را به LaMDA ارسال و از او درخواست کنید فهرستی از وظایف فرعی ارائه دهد.
- گوگل سیستم هوش مصنوعی LaMDA را در I/O 2021 معرفی کرد
- هوش مصنوعی گوگل، پدری را بهاشتباه به آزار فرزندش متهم کرد
همچنین، نسخهای نمایشی از سگی وجود دارد که میتوانید در آن دربارهی سگها صحبت کنید و این نمونه درواقع توانایی ربات را برای بحث دربارهی موضوعی خاص نشان میدهد. گفتنی است این مسئله در چتباتهای قبلی کمتر دیده شده است. تاکنون، نسخهی نمایشی «آیا شما احمق نژادپرست هستید» ارائه نشده است؛ اما باتوجهبه ماهیت اینترنت، احتمالاً بهزودی به طریقی آن را کشف خواهیم کرد.
اگر به گذشته نگاه کنیم، بارها شاهد سقوط چتباتهای مختلف بودهایم. بهعنوان مثال، چتبات مایکروسافت موسوم به Tay در سال ۲۰۱۶ سعی کرد از مکالمههای آنلاین کاربران نکات جدیدی یاد بگیرد و پس از فعالسازی، بهدلیل ارائهی سخنان توهینآمیز و نژادپرستانه، کاملاً غیرفعال شد.
محققان درادامهی این مسیر، گمان میکردند که آموزش رباتهای چت روی کاربران ایدهی خوبی خواهد بود که البته نتیجهی این روش نیز خلق بیش از ۱۵ هزار پست نژادپرستانه در روز اول بود. متا نیز اخیراً چتبات مبتنیبر هوش مصنوعی خود موسوم به Blender Bot 3 را برای عموم کاربران رونمایی کرده است. این چتبات بهطرز معجزهآسایی هنوز به نژادپرست خشمگین تبدیل نشده است؛ ولی نمیتواند کاربران را متقاعد کند که چقدر نژادپرست نیست.
LaMDA واقعاً روی شانههای غولها ایستاده است
بهنظر میرسد گوگل از مشکل رباتهای نژادپرست آگاهی دارد. این شرکت میگوید بیش از یک سال ربات را بهصورت داخلی آزمایش کرده و اعضای تیم قرمز را با هدف صریح آزمایش استرس داخلی سیستم، برای یافتن پاسخهای بالقوهی مضر یا نامناسب بهکار گرفته است. غول جستوجوی اینترنت در آزمایش خود اعلام کرد چندین خروجی مضر و درعینحال ظریف پیدا کرده است که در برخی مواقع میتواند به ارائهی پاسخهای نامناسب منجر شود. گوگل دربارهی چتبات LaMDA گفت:
هوش مصنوعی LaMDA همچنان میتواند پاسخهای مضر یا نامناسب را براساس سوگیری در دادههای آموزشی خود ایجاد کند و پاسخهایی ارائه دهد که براساس جنسیت یا پیشینهی فرهنگی آنها، کلیشهای و نادرست باشند.
گوگل میگوید LaMDA را طوری طراحی کرده است که بهطورخودکار کلمات خاصی را شناسایی و فیلتر میکند تا از ایجاد آگاهانهی محتوای مضر جلوگیری شود. بااینحال، این شرکت از کاربران میخواهد با احتیاط با ربات LaMDA کار کنند.