سرور مجازی
فناوری

دیدن یعنی باور کردن؛ تبعات جدی اشتباهات پزشکی هوش مصنوعی

دیدن یعنی باور کردن؛ تبعات جدی اشتباهات پزشکی هوش مصنوعی

متخصصان تجسم‌سازی زیست‌پزشکی هنوز نتوانسته‌اند به توافقی درباره استفاده درست یا نادرست از ابزارهای تولید تصویر مبتنی بر هوش مصنوعی در زمینه سلامت و علوم برسند.

به گزارش دیتاسنتر من و به نقل از The Register، پژوهشگران دانشگاه برگن نروژ، دانشگاه تورنتو کانادا و دانشگاه هاروارد آمریکا در که قرار است در کنفرانس IEEE Vis 2025 ارائه شود، به این موضوع پرداخته‌اند که تصاویر ساخته‌شده توسط مدل‌های هوش مصنوعی نظیر GPT-4o و DALL-E 3 اغلب ظاهر جذابی دارند اما در جزئیات علمی و آناتومی اشتباهات قابل توجهی دارند.

برای مثال، تصویری مشهور از یک موش با جنسی بسیار بزرگ به طور نادرست در مقاله‌ای منتشر و بعدها پرونده آن پس گرفته شد، نمونه‌ای از چنین خطاهایی است که به سختی می‌توان آن را جدی گرفت. تصاویر تولیدی توسط هوش مصنوعی ممکن است آنقدر حرفه‌ای به نظر برسند که افراد عادی یا حتی متخصصین با تجربه را به اشتباه بیندازند.

روکسان زیمن، پژوهشگر ارشد این تحقیق، می‌گوید که هرچند هنوز مورد مستندی از آسیب مستقیم پزشکی ناشی از تصاویر اشتباه هوش مصنوعی وجود ندارد، اما استفاده از این تصاویر نادرست در مقالات و تحقیقات علمی میتواند مشکلات بلندمدت ایجاد کند. او به موردی در هلند اشاره میکند که سیستمی مبتنی بر هوش مصنوعی برای شناسایی تقلب در کمک‌های دولتی به اشتباه والدینی به خصوص با زمینه مهاجرت را متهم کرده است.

 

دیدن یعنی باور کردن؛ تبعات جدی اشتباهات پزشکی هوش مصنوعی

مطالعه همچنین نگرانی‌هایی درباره تأثیر این تصاویر نادرست بر اعتماد عمومی به تحقیقات علمی و سلامتی مطرح کرده است، به طوری که می‌تواند به افزایش بی‌اعتمادی مردم به اطلاعات رسمی سلامت منجر شود.

نکته جالب این است که در مصاحبه‌ها، افراد فعال در حوزه تجسم‌سازی زیستی، دیدگاه‌های متفاوتی درباره استفاده از هوش مصنوعی دارند؛ برخی از تصاویر عجیب و غریب تولید شده توسط هوش مصنوعی استقبال کرده‌اند و معتقدند این تصاویر روند گفتگو با مشتریان را پیش می‌برد، اما تعداد قابل توجهی نیز نگران دقت پایین و مشکلات نحوه استفاده از این ابزارها هستند.

یکی از مصاحبه‌شوندگان اشاره می‌کند که هوش مصنوعی هنوز نمی‌تواند تفاوت بین اجزای دقیق آناتومی مانند عصب سیاتیک و عصب اولنار را تشخیص دهد و بیشتر تصاویر حاصل شده شبیه مجموعه‌ای از سیم‌هاست تا اندام واقعی.
 

محققان هشدار می‌دهند که هرچه تکنولوژی هوش مصنوعی پیشرفته‌تر و محبوب‌تر شود، خطاهای آن نیز سخت‌تر تشخیص داده خواهند شد و ابهام در نحوه عملکرد مدل‌های سیاه‌باکس (black-box) چالشی جدی برای پاسخگویی و مسئولیت‌پذیری ایجاد می‌کند.

یکی از پژوهشگران دانشگاه تورنتو، شهریار سهران، تأکید می‌کند که باید ضمن بهره‌گیری از مزایای هوش مصنوعی، به صورت انتقادی و دقیق درباره نقش آن در حوزه تجسم‌سازی زیستی فکر کنیم و نگرانی‌ها و سوالات خود را آزادانه مطرح کنیم تا جلوی استفاده نادرست و آسیب رساندن به روند علمی گرفته شود.

این مطالعه یک زنگ هشدار مهم است برای پزشکان، پژوهشگران و سیاست‌گذاران به منظور تدوین دستورالعمل‌های دقیق و اصول اخلاقی برای استفاده از ابزارهای هوش مصنوعی در محیط‌های حساس پزشکی و زیستی، پیش از آنکه «تصاویر جذاب اما اشتباه» تبدیل به تهدیدی جدی برای سلامت انسان شوند.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا