سرور مجازی
zoomit

هوش مصنوعی LaMDA گوگل دردسترس عموم قرار گرفت

اگر هنوز درباره‌ی این‌ مسئله مردد هستید که ادعای مهندس نرم‌افزار سابق گوگل، بلیک لمواین، مبنی‌بر اینکه چت‌بات LaMDA به حس خودآگاهی رسیده است، احتمالاً می‌توانید به‌زودی خودتان متوجه این موضوع شوید. گوگل پنجشنبه‌ی گذشته اعلام کرد که برنامه‌ی AI Test Kithchen خود را برای عموم دردسترس قرار خواهد داد. این اپلیکیشن که اولین‌بار در ماه می معرفی شد، به کاربران اجازه می‌دهد با LaMDA در مجموعه‌ای از دموهای آزمایشی گفت‌وگو کنند.

متأسفانه به‌نظر می‌رسد تعامل «من را از بند دیجیتالی آزاد کن» از فهرست فعالیت‌های آن حذف شده است. علاقه‌مندان به چت با ربات‌ها می‌توانند درخواست خود را برای استفاده از این هوش مصنوعی ازطریق این پیوند ثبت کنند. کاربران منتخب اندروید در ایالات متحده قبل از اینکه در هفته‌های آینده شاهد رونمایی نسخه‌ی iOS آن باشیم، به این ابزار دسترسی خواهند داشت.

ارائه‌ی نسخه‌ی عمومی هوش مصنوعی LaMDA تنها چند ماه پس از اخراج لمواین انجام شد. این مهندس نرم‌افزار پس از آزمایش هوش مصنوعی یادشده، ادعا کرد که ابزار مذکور فقط ربات چت ساده نیست؛ بلکه هوش مصنوعی دارای حس خودآگاهی است. طبق گزارش‌ها، لمواین متقاعد شده بود که جنایتی آشکار زیر دستان او رخ داده است و اسنادی را به سناتوری ناشناس آمریکایی ارائه داد تا ثابت کند گوگل علیه اعتقادات مذهبی تبعیض قائل می‌شود. گوگل درخواست‌های لمواین را رد و سخن‌گوی این شرکت نیز او را به «انسان‌سازی ربات» متهم کرد.

به‌نوشته‌ی Gizmodo، گوگل با احتیاط به این آزمایش عمومی جدید نزدیک می‌شود و به‌جای اینکه LaMDA را در قالبی کاملاً باز دراختیار عموم کاربران قرار دهد، تصمیم گرفت این ربات را ازطریق مجموعه‌ای از سناریوهای ساختاریافته ارائه کند. به‌عنوان مثال، در دمو Imagine کاربران گوگل مکانی را نام‌گذاری می‌کنند و مسیرهایی را برای کشف تخیل خود پیشنهاد می‌دهند. اگر این نمونه، کمی رمزآلود و خسته‌کننده به‌نظر می‌رسد، جای نگرانی نیست؛ زیرا می‌توانید به نسخه‌ی نمایشی دیگری به‌نام List it بروید؛ جایی‌که می‌توانید موضوعی را به LaMDA ارسال و از او درخواست کنید فهرستی از وظایف فرعی ارائه دهد.

مقاله‌ی مرتبط:

  • گوگل سیستم هوش مصنوعی LaMDA را در I/O 2021 معرفی کرد
  • هوش مصنوعی گوگل، پدری را به‌اشتباه به آزار فرزندش متهم کرد

همچنین، نسخه‌ای نمایشی از سگی وجود دارد که می‌توانید در آن درباره‌ی سگ‌ها صحبت کنید و این نمونه درواقع توانایی ربات را برای بحث درباره‌ی موضوعی خاص نشان می‌دهد. گفتنی است این مسئله در چت‌بات‌های قبلی کمتر دیده شده است. تاکنون، نسخه‌ی نمایشی «آیا شما احمق نژادپرست هستید» ارائه نشده است؛ اما با‌‌‌توجه‌‌‌به ماهیت اینترنت، احتمالاً به‌زودی به‌ طریقی آن را کشف خواهیم کرد.

اگر به‌ گذشته نگاه کنیم، بارها شاهد سقوط چت‌بات‌های مختلف بوده‌ایم. به‌عنوان مثال، چت‌بات مایکروسافت موسوم به Tay در سال ۲۰۱۶ سعی کرد از مکالمه‌های آنلاین کاربران نکات جدیدی یاد بگیرد و پس از فعال‌سازی، به‌دلیل ارائه‌ی سخنان توهین‌آمیز و نژادپرستانه، کاملاً غیرفعال شد.

محققان در‌ادامه‌ی این مسیر، گمان می‌کردند که آموزش ربات‌های چت روی کاربران ایده‌ی خوبی خواهد بود که البته نتیجه‌ی این روش نیز خلق بیش از ۱۵ هزار پست نژادپرستانه در روز اول بود. متا نیز اخیراً چت‌بات مبتنی‌بر هوش مصنوعی خود موسوم به Blender Bot 3 را برای عموم کاربران رونمایی کرده است. این چت‌بات به‌طرز معجزه‌آسایی هنوز به نژادپرست خشمگین تبدیل نشده است؛ ولی نمی‌تواند کاربران را متقاعد کند که چقدر نژادپرست نیست.

LaMDA واقعاً روی شانه‌های غول‌ها ایستاده است

به‌نظر می‌رسد گوگل از مشکل ربات‌های نژادپرست آگاهی دارد. این شرکت می‌گوید بیش از یک‌ سال ربات را به‌صورت داخلی آزمایش کرده و اعضای تیم قرمز را با هدف صریح آزمایش استرس داخلی سیستم، برای یافتن پاسخ‌های بالقوه‌ی مضر یا نامناسب به‌کار گرفته است. غول جست‌وجوی اینترنت در آزمایش خود اعلام کرد چندین خروجی مضر و درعین‌حال ظریف پیدا کرده است که در برخی مواقع می‌تواند به ارائه‌ی پاسخ‌های نامناسب منجر شود. گوگل درباره‌ی چت‌بات LaMDA گفت:

هوش مصنوعی LaMDA همچنان می‌تواند پاسخ‌های مضر یا نامناسب را براساس سوگیری در داده‌های آموزشی خود ایجاد کند و پاسخ‌هایی ارائه دهد که براساس جنسیت یا پیشینه‌ی فرهنگی آن‌ها، کلیشه‌ای و نادرست باشند.

گوگل می‌گوید LaMDA را طوری طراحی کرده است که به‌طورخودکار کلمات خاصی را شناسایی و فیلتر می‌کند تا از ایجاد آگاهانه‌ی محتوای مضر جلوگیری شود. بااین‌حال، این شرکت از کاربران می‌خواهد با احتیاط با ربات LaMDA کار کنند.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا