سرور مجازی
فناوری

سیلیکون‌ولی با مدافعان ایمنی هوش مصنوعی وارد تقابل شد

سیلیکون‌ولی با مدافعان ایمنی هوش مصنوعی وارد تقابل شد

رهبران برجسته سیلیکون‌ولی از جمله دیوید سکس، مسئول هوش مصنوعی و رمزارز کاخ سفید و جیسون کوان، مدیر ارشد استراتژی شرکت اپن‌ای‌آی، در روز‌های اخیر با اظهاراتی علیه گروه‌های مدافع ایمنی هوش مصنوعی موجی از واکنش‌ها را در فضای فناوری برانگیخته‌اند. آنان مدعی شدهند برخی از فعالان این حوزه به‌جای دغدغه‌مندی واقعی، در راستای منافع شخصی یا منافع مالی قدرت‌های پشت پرده فعالیت می‌کنند.

گروه‌های ایمنی هوش مصنوعی این اتهامات را تلاشی تازه از سوی سیلیکون‌ولی برای ارعاب منتقدان خود توصیف کردند، این تلاش به گفته آنان سابقه‌ای طولانی دارد. سال گذشته نیز برخی شرکت‌های سرمایه‌گذاری خطرپذیر با شایعه‌سازی درباره لایحه ایمنی هوش مصنوعی کالیفرنیا (SB ۱۰۴۷)، مدعی شده بودند که این قانون می‌تواند مؤسسان استارتاپ‌ها را راهی زندان کند. هرچند این ادعا بعد‌ها از سوی مؤسسه بروکینگز تکذیب شد، اما در نهایت فرماندار گاوین نیوسام آن را وتو کرد.

صرف‌نظر از نیت واقعی رهبران فناوری، سخنان اخیر آنها باعث نگرانی عمیق در میان فعالان حوزه ایمنی هوش مصنوعی شده است. بسیاری از مدیران سازمان‌های غیردولتی فعال در این زمینه، به‌دلیل ترس از پیامد‌های احتمالی، تنها به شرط ناشناس ماندن با رسانه‌ها گفت‌و‌گو کرده‌اند.

این تنش تازه بازتاب‌دهنده‌ شکاف رو‌به‌گسترش در دره سیلیکون است درست جایی که دو دیدگاه متضاد از جمله ساخت هوش مصنوعی با رویکردی مسئولانه و دیگری ساخت آن صرفاً برای رشد اقتصادی و سود کلان در حال تقابل‌ هستند.

ماجرا از آنجا آغاز شد که دیوید سکس در پستی در شبکه اجتماعی ایکس شرکت آنتروپیک را متهم کرد که با «ایجاد ترس» در جامعه، در پی تصویب قوانینی است که منافع خودش را تضمین کرده و استارتاپ‌های کوچک‌تر را درگیر بروکراسی سنگین می‌کند. آنتروپیک، تنها شرکت بزرگ هوش مصنوعی بود که از لایحه ایمنی سنای کالیفرنیا (SB ۵۳) حمایت کرد؛ قانونی که ماه گذشته به تصویب رسید و شرکت‌های بزرگ هوش مصنوعی را موظف به گزارش‌دهی عمومی درباره اقدامات ایمنی خود می‌کند.

سکس در واکنش به مقاله‌ای از جک کلارک، هم‌بنیان‌گذار آنتروپیک، چنین اظهار نظر کرد. کلارک در آن مقاله و سخنرانی‌اش در کنفرانس Curve AI Safety در برکلی، درباره خطرات احتمالی هوش مصنوعی ابراز نگرانی کرده بود. سکس، اما این سخنان را نوعی «استراتژی تسخیر مقررات» توصیف کرد و مدعی شد که آنتروپیک خود را در جایگاه «دشمن دولت ترامپ» قرار داده است.

در همان روزها، جیسون کوان از شرکت اپن‌ای‌آی نیز اعلام کرد که این شرکت برای چند سازمان غیردولتی فعال در زمینه ایمنی هوش مصنوعی از جمله Encode، احضاریه قانونی ارسال کرده است. این اقدام پس از شکایت ایلان ماسک از اپن‌ای‌آی انجام شد؛ شکایتی که ماسک در آن مدعی است این شرکت از مأموریت غیرانتفاعی اولیه‌اش منحرف شده است. کوان گفت که برخی از سازمان‌های مدافع ایمنی که به شکایت ماسک پیوسته یا از آن حمایت کرده‌اند، رفتار مشکوکی از خود نشان داده‌اند و اپن‌ای‌آی خواستار شفاف‌سازی در مورد منابع مالی و ارتباطات احتمالی آنها شده است.

برندن استاین‌هاوزر، مدیرعامل مؤسسه Alliance for Secure AI که جزو احضارشده‌ها نیست گفت: «اپن‌ای‌آی گمان می‌کند منتقدانش بخشی از توطئه‌ای به رهبری ایلان ماسک هستند، در حالی که بسیاری از فعالان این حوزه، منتقد جدی خود ماسک و شرکت ایکس‌ای‌آی او هستند. اقدامات اپن‌ای‌آی تلاشی برای ساکت کردن و ترساندن منتقدان است. از طرف دیگر، سکس نگران رشد جنبش ایمنی و فشار اجتماعی برای پاسخ‌گویی شرکت‌های فناوری است.

سریرام کریشنان، مشاور ارشد سیاست‌گذاری هوش مصنوعی در کاخ سفید و شریک پیشین شرکت سرمایه‌گذاری a۱۶z نیز در پستی در ایکس، مدافعان ایمنی هوش مصنوعی را «از واقعیت جدا» خواند.

بر اساس نظرسنجی تازه مرکز Pew، حدود نیمی از آمریکایی‌ها نسبت به هوش مصنوعی بیشتر احساس نگرانی دارند تا هیجان، هرچند هنوز دقیقاً نمی‌دانند از چه چیزی باید بترسند. پژوهشی دیگر نشان می‌دهد مردم بیشتر از بیکاری و دیپ‌فیک‌ها نگران‌اند تا خطرات فاجعه‌بار و انتزاعی که گروه‌های ایمنی بر آن تمرکز دارند.

کارشناسان معتقدند مقابله با این نگرانی‌ها ممکن است سرعت رشد صنعت هوش مصنوعی را کاهش دهد؛ اما پس از سال‌ها توسعه بدون نظارت، جنبش ایمنی هوش مصنوعی اکنون به نقطه‌ای رسیده که نفوذ و تأثیر واقعی‌اش بر سیاست‌گذاران در حال افزایش است. شاید واکنش تند سیلیکون‌ولی به این جنبش، نشانه‌ای باشد از اینکه این‌بار، منتقدان واقعاً در حال تغییر مسیر صنعت هستند.

منبع: برنا

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا