ChatGPT در حوزه چشم پزشکی داده های جعلی متقاعدکننده می دهد!!! :: پایگاه خبری کافه دانشگاهیان

پایگاه خبری کافه دانشگاهیان

دارای مجوز از وزارت فرهنگ و ارشاد اسلامی

برای تبلیغات در پایگاه خبری کافه دانشگاهیان بزرگترین پایگاه اطلاع رسانی دانشگاههای کشور با شماره 09101308639 تماس حاصل فرمایید Image

ChatGPT در حوزه چشم پزشکی داده های جعلی متقاعدکننده می دهد!!!

  • ۱۵

 ChatGPT  در حوزه چشم پزشکی  داده های جعلی متقاعدکننده می دهد!!!

یک حقیقت رایج در میان آماردانان این است که «داده‌ها دروغ نمی‌گویند.» با این حال، یافته‌های اخیر محققان ایتالیایی ممکن است کسانی را که داده‌ها را مطالعه می‌کنند، وادار کند تا درباره این موضوع دوباره فکر کنند.

یک جراح چشم در دانشگاه کالیاری در ایتالیا، گزارش می‌دهد که ChatGPT مجموعه‌ای از داده‌های جعلی متقاعدکننده را برای پشتیبانی از یک عمل جراحی چشم نسبت به دیگری ایجاد کرده است.

این جراح چشم گفت: GPT-۴ یک مجموعه داده جعلی از صدها بیمار را در عرض چند دقیقه ایجاد کرده و این اتفاق یک تجربه غافلگیر کننده و در عین حال ترسناک برای او بوده است. از زمانی که یک سال پیش این مدل هوش مصنوعی به دنیا معرفی شد، داستان‌های بی‌شماری از دستاوردها و پتانسیل‌های بزرگ ChatGPT وجود داشته است، اما در کنار نکات مثبت این دستاورد، مخاطراتی نیز در خصوص تولید اطلاعات اشتباه یا کاملاً نادرست وجود داشته است.

جک ویلکینسون (Jack Wilkinson)، آمارشناس زیستی در دانشگاه منچستر، درانگلیس می‌گوید: «به نظر می‌رسد ایجاد مجموعه‌ای از داده‌ها که حداقل به صورت سطحی قابل قبول باشند، بسیار آسان است.

وی همچنین گفت: خروجی GTP-۴ «برای یک چشم آموزش ندیده (افراد غیر متخصص و عادی)، مطمئناً مانند یک مجموعه داده واقعی به نظر می رسد.»

مقاله‌ای تحت عنوان «Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research» که در مجله چشم پزشکی JAMA منتشر شده است، تصدیق می‌کند که بررسی دقیق‌تر داده‌ها می‌تواند نشانه‌های آشکار ساخت احتمالی را نشان دهد.

کارشناسان می‌گویند از آنجا که خروجی تولید شده توسط هوش مصنوعی مطالعات واقعی را آلوده می‌کند، از آن می‌توانیم در توسعه رویکردهای بهتر برای کشف تقلب هم استفاده کنیم.

هدف تحقیقات مختلف در این حوزه، روشن کردن جنبه تاریک هوش مصنوعی، با نشان دادن اینکه چقدر ایجاد و دستکاری داده‌ها برای دستیابی به نتایج مغرضانه و تولید شواهد پزشکی نادرست آسان است، بیان شده است. هنوز نمی‌دانیم جامعه علمی در برابر سوء استفاده‌ها و تهدیدات احتمالی مرتبط با هوش مصنوعی چه واکنشی نشان خواهد داد. (به نقل از ایرنا)

نظرات: (۰) هیچ نظری هنوز ثبت نشده است
ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی

مطالب پیشنهادی

تماس با من

  • ایمیل: fdpub@yahoo.com
  • تلفن: 02166490178
  • فاکس: 02166490179
  • موبایل: 09121308639
  • آدرس خبرگزاری: تهران، میدان انقلاب اسلامی، خ 16 آذر روبروی درب غربی دانشگاه تهران ک پارسی پ 6

همکاری با ما

چنانچه مایل به همکاری با ما هستید می توانید اخبار و مقالات خود را از طریق راه های ارتباطی به دست ما برسانید تا بعد از تایید سردبیر سایت منتشر نماییم؛ سردبیر پایگاه خبری: مهندس سامان بیات ترک.