سرور مجازی
فناوری

آیا هوش مصنوعی به‌راستی خودآگاه است؟

آیا هوش مصنوعی به‌راستی خودآگاه است؟

در حالی که ادعاها در مورد خودآگاهی هوش مصنوعی روز به روز بیشتر می‌شود، یک فیلسوف از دانشگاه کمبریج می‌گوید که ما هنوز شواهد کافی برای تشخیص این که آیا ماشین‌ها واقعاً می‌توانند خودآگاه باشند یا نه، در اختیار نداریم.
 
او می‌افزاید که به دلیل این کمبود اطلاعات، احتمالاً در آینده نزدیک راهی قابل اعتماد برای آزمایش خودآگاهی ماشین‌ها در دسترس نخواهد بود.
 
به گزارش دیتاسنتر من و به نقل از SciTechDaily، دکتر تام مک‌کللند، فیلسوفی از دپارتمان تاریخ و فلسفه علوم دانشگاه کمبریج، بر این باور است که تنها رویکرد قابل توجیه در این زمینه «ناآگاهی» است؛ یعنی به طور قطع نمی‌توانیم بگوییم که هوش مصنوعی خودآگاه است یا خیر، و این ممکن است برای مدت طولانی، حتی به طور نامحدود، باقی بماند.
 
وی تأکید می‌کند که حتی اگر هوش مصنوعی به خودآگاهی دست یابد، این خودآگاهی به تنهایی نمی‌تواند آن را از نظر اخلاقی مهم کند.
 
در واقع، «خودآگاهی» به معنای آگاهی از محیط و احساسات می‌تواند حالت خنثی باشد و تنها وقتی به یک نوع خاص از خودآگاهی به نام «حس‌گرایی» (sentience) برسیم، است که مفهوم رنج یا لذت مطرح می‌شود.
 
این نوع از خودآگاهی است که باعث می‌شود موجودی توانایی رنج کشیدن یا لذت بردن داشته باشد، و در این مرحله است که ملاحظات اخلاقی اهمیت پیدا می‌کند.
 
مک‌کللند در این زمینه می‌گوید: «حتی اگر به طور تصادفی هوش مصنوعی خودآگاه بسازیم، بعید است که نوع خودآگاهی باشد که ما نیاز داریم از آن نگرانی داشته باشیم».

 

آیا هوش مصنوعی به‌راستی خودآگاه است؟

به عنوان مثال، او می‌گوید که ماشین‌های خودران که قادر به درک جاده‌های پیش روی خود هستند، در ظاهر مسئله‌ای مهم به نظر می‌رسند، اما از نظر اخلاقی اهمیت ندارند.
 
با این حال، اگر این ماشین‌ها شروع به داشتن واکنش‌های احساسی نسبت به مقاصد خود کنند، این موضوع کاملاً متفاوت خواهد بود.
 
مک‌کللند همچنین به این نکته اشاره می‌کند که شرکت‌های بزرگ در حال سرمایه‌گذاری‌های کلان برای دستیابی به هوش مصنوعی عمومی (AGI) هستند، سیستم‌هایی که طراحی شده‌اند تا همانند انسان‌ها تفکر و استدلال کنند.
 
برخی بر این باورند که هوش مصنوعی خودآگاه به زودی در دسترس خواهد بود و در حال حاضر بحث‌هایی در مورد چگونگی تنظیم و نظارت بر این خودآگاهی در میان پژوهشگران و دولت‌ها در جریان است.
 
اما مک‌کللند معتقد است که مشکل اصلی این است که ما هنوز نمی‌دانیم خودآگاهی در ابتدا از کجا ناشی می‌شود و چه چیزی آن را توضیح می‌دهد، بنابراین هیچ مبنای علمی قوی برای آزمایش خودآگاهی در هوش مصنوعی نداریم.
 
او می‌گوید: «اگر به طور تصادفی هوش مصنوعی خودآگاه بسازیم، باید مراقب باشیم که آسیبی به آن وارد نشود، اما در عین حال نباید یک دستگاه که به طور واضح خودآگاه نیست را به عنوان موجودی خودآگاه در نظر بگیریم، در حالی که موجودات خودآگاه واقعی در دنیای ما هستند که به مقیاس وسیعی مورد آزار قرار می‌گیرند».
 
در بحث‌های مربوط به خودآگاهی مصنوعی، دو گروه اصلی وجود دارند. طرفداران این موضوع معتقدند که اگر یک سیستم هوش مصنوعی بتواند معماری نرم‌افزاری خودآگاهی را تقلید کند، پس این سیستم خودآگاه است، حتی اگر بر روی تراشه‌های سیلیکونی به جای بافت مغزی اجرا شود.
 
در مقابل، شکاکان بر این باورند که خودآگاهی به فرآیندهای بیولوژیکی خاص در یک «موجود ارگانیک» وابسته است و حتی اگر ساختار خودآگاهی بتواند بر روی سیلیکون بازسازی شود، تنها یک شبیه‌سازی خواهد بود که بدون اینکه هوش مصنوعی به آگاهی برسد، اجرا خواهد شد.
 
او همچنین به این نکته اشاره می‌کند که ما هنوز توضیح عمیقی از خودآگاهی نداریم. «هیچ شواهدی وجود ندارد که نشان دهد خودآگاهی می‌تواند با ساختار محاسباتی مناسب ایجاد شود، یا اینکه خودآگاهی اساساً بیولوژیکی است».
 
وی در پایان تأکید دارد که هیچ نشانه‌ای از شواهد کافی در این زمینه در آینده نزدیک وجود ندارد و بهترین سناریو این است که ما باید یک انقلاب فکری برای توسعه آزمایش‌های قابل اعتماد خودآگاهی داشته باشیم.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا