هوش مصنوعی؛ ابزاری قدرتمند اما نیازمند آگاهی
به گزارش واحد علم و فناوری خبرگزاری صبح اقتصاد وبگاه فیزیکس ورلد در گزارشی آورده است:
هوش مصنوعی (AI) بهسرعت در حال تبدیل شدن به یک پدیده دوگانه و بحثبرانگیز است؛ برخی آن را معجزهآسا میدانند و برخی دیگر آن را تهدیدآمیز و ترسناک میپندارند؛ اما این نکته قطعی است که هوش مصنوعی برای ماندن آمده است؛ بنابراین بهتر است به آن عادت کنیم.
از بسیاری جهات، هوش مصنوعی بسیار شبیه به سایر راهحلهای تحلیل داده است، چرا که عملکرد آن به دو عامل بستگی دارد: یکی کیفیت دادههای ورودی و دیگری صحتسنجی خروجیها توسط کاربر بهمنظور کسب اطمینان از مناسببودن خروجیها برای هدف مدنظر.
هوش مصنوعی که پیش از این تنها ابزاری تخصصی برای متخصصان بود، اکنون به طور گسترده برای استفادههای عمومی در دسترس است، به ویژه از طریق ابزارهای هوش مصنوعی مولد (GenAI). این ابزارها که به نام مدلهای زبانی بزرگ (LLMs) نیز شناخته میشوند، هماکنون از طریق برنامههایی مانند چَتجیپیتی، کوپایلت، کلود، اَدوبی فایرفلای و جِمینای در دسترس هستند.
هوش مصنوعی مولد به لطف در دسترسبودن حجم عظیمی از دادههای دیجیتالیشده و پیشرفتهای چشمگیر در قدرت پردازش رایانهها، ممکن شده است. این مدلها که بر پایه شبکههای عصبی کار میکنند، بدون این دو عنصر اساسی، اساساً غیر ممکن بودند.
هوش مصنوعی مولد در جستوجو و خلاصهسازی حجم انبوهی از متون بدون ساختار، فوقالعاده قدرتمند عمل میکند. این فناوری از مقادیر درکنشدنی داده بهره میبرد و همواره در حال بهبود است و منافع چشمگیری از نظر کارایی و صرفهجویی در نیروی کار، به کاربران ارائه میدهد.”آگاهی”
امروزه بسیاری از افراد به طور معمول از آن برای نوشتن صورتجلسات، نگارش نامه و رایانامه و خلاصهسازی محتوای چندین سند استفاده میکنند. هوش مصنوعی همچنین میتواند مشکلاتی از جمله مدلسازی آبوهوا، کشف دارو و پیشبینی ساختار پروتئین که برای انسان پیچیده و دشوار هستند، را حل کند.”آگاهی”
کاربران باید احتیاط کنند
هوش مصنوعی مانند همه فناوریهای جدید و درخشان، با هشدارهایی همراه است که هنگام استفاده از چنین ابزارهایی باید در نظر داشته باشیم:
محدودیت دانش: مدلهای زبانی بزرگ بر اساس دادههای تاریخی آموزش دیدهاند و بر اساس الگوهای گذشته عمل میکنند؛ در نتیجه نمیتوانند به طور دقیق پیشبینی کنند که در آینده چه اتفاقی رخ خواهد داد یا حتی نمیتوانند رویدادهایی که پس از آموزش مدل رخ دادهاند را شناسایی کنند. همچنین ممکن است پاسخهای هوش مصنوعی به دلیل طراحی امنیتی، سوگیریهای موجود در دادههای آموزشی یا محدودیتهای فنی، ناقص یا سانسور شده باشد؛ بنابراین، کاربران همیشه باید اطلاعات خروجی را با منابع بهروز و معتبر تأیید کنند.”آگاهی”
جعبه سیاه: مشکل دیگر هوش مصنوعی این است که گاهی مانند یک جعبه سیاه عمل میکند و فهم چگونگی، علت یا مبنای رسیدن به یک تصمیم خاص را برایمان دشوار میسازد. به آزمونهای کپچای برخط فکر کنید که برای دسترسی به حسابهای کاربری باید انجام دهیم. این آزمونها معمولاً یک صحنه خیابانی را نشان میدهند و از ما میخواهند بخشهای حاوی چراغ راهنمایی را در تصویر انتخاب کنیم.
این آزمونها برای تمایز بین انسان و رایانه یا ربات طراحی شدهاند. اگر فرض کنیم که هوش مصنوعی نمیتواند همیشه چراغهای راهنمایی را تشخیص دهد، این سؤال ایجاد میشود که سامانههای کمک راننده پیشرفته (ADAS) مبتنیبر هوش مصنوعی در خودروهای خودران که به احتمال زیاد این عملکرد را به طور بیوقفه در جادهها انجام میدهند، چگونه عمل میکنند؟ آیا رانندههای چنین خودروهایی در معرض خطر قرار دارند؟
حریم خصوصی: بسیاری از برنامههای هوش مصنوعی مولد، درخواستهای کاربر و تاریخچه مکالمات را ذخیره میکنند و احتمالاً از این دادهها برای آموزش مدلهای آینده استفاده خواهند کرد. هیچ تضمینی وجود ندارد که دادهها از این برنامهها حذف شوند.
متخصصان توصیه میکنند برای استفاده ایمن از هوش مصنوعی، نکات زیر را در نظر بگیرید:
۱. از وارد کردن اطلاعات شخصی و حساس خودداری کنید.
۲. پاسخهای هوش مصنوعی را همیشه با منابع معتبر تأیید کنید.
۳. به خروجی هوش مصنوعی اعتماد مطلق نداشته باشید.
۴. شرایط استفاده از برنامههای کاربردی (پلتفرمهای) هوش مصنوعی را به دقت مطالعه کنید.
هوش مصنوعی ابزاری قدرتمند است؛ اما مانند هر فناوری دیگری نیاز به استفاده مسئولانه و آگاهانه دارد. موفقیت این فناوری در گرو فهم صحیح قابلیتها و محدودیتهای آن است.
- منبع خبر : ایرنا