آیا «چت جی‌پی‌تی» از وجود خود آگاه است؟

قدرت گرفتن هر چه بیشتر ابزارهای هوش مصنوعی مانند «چت جی‌پی‌تی» این نگرانی را به وجود آورده که آیا ممکن است هوش مصنوعی به «آگاهی از خود» دست پیدا کند؟ خطرات ظهور این آگاهی در هوش مصنوعی چه می‌تواند باشد؟

به گزارش پایگاه خبری تحلیلی رادار اقتصاد، به نوشته سایت «ساینس‌اَلِرت»، از اواخر سال گذشته میلادی که شرکت آمریکایی «اوپن‌ای‌آی» (OpenAI)، «چت جی‌پی‌تی» (ChatGPT) را به عنوان قوی‌ترین مدل زبانی مبتنی بر هوش مصنوعی در دسترس عموم قرار داد،‌ کارشناسان هشدارهای خود نسبت به تهدیدات هوش مصنوعی را بیشتر از گذشته مطرح می‌کنند.

از آن زمان، در دسترس قرار گرفتن ابزارهای هوش مصنوعی شبیه به چت جی‌پی‌تی افزایش قابل توجهی پیدا کرده،‌ اما رفتار غیرقابل انتظار آن‌ها مانند ارائه پاسخ‌هایی که برای آن‌ها برنامه‌ریزی نشده یا تعامل غیرطبیعی مدل‌های زبانی هوش مصنوعی با یکدیگر،‌ نگرانی‌هایی در پی داشته است؛ نگرانی‌هایی مبنی بر اینکه برخی ابزارهای هوش مصنوعی تا چه اندازه در حال نزدیک شدن و شباهت پیدا کردن به هوش انسانی هستند.

برای پاسخ به این نگرانی،‌ تیمی از دانشمندان بین‌المللی از جمله یکی از اعضای شرکت اوپن‌ای‌آی، در حال انجام بررسی‌های مختلف برای پاسخ به یک سوال هستند: «مدل‌های زبانی مانند چت جی‌پی‌تی از نظر آگاهی از وجود خود و شرایطی که در آن قرار دارند، در چه سطحی قرار دارند؟»

هر زمانی که مدل‌های زبانی مبتنی بر هوش مصنوعی توسعه داده می‌شود،‌ این مدل‌ها در معرض آزمایش قرار می‌گیرند تا هرگونه رفتار نامناسب یا خطرناک از سوی آن‌ها شناسایی شود. اما محققان امنیتی به تازگی راه‌هایی پیدا کرده‌اند که می‌تواند باعث رفتار غیرمنتظره و حتی خطرناک این مدل‌های زبانی شود؛ رفتارهایی مانند حملات فیشینگ از طریق ارسال ایمیل یا بیان جملاتی که از خشونت حمایت می‌کند.

این رفتارهای خطرناک به دنبال اقدامات عامدانه یک محقق امنیتی دیده شد که سعی داشت خطاهای «جی‌پی‌تی 4» - تازه‌ترین نسخه از چت جی‌پی‌تی را شناسایی کند. به گفته محققان،‌ اگر مدل‌های زبانی به «آگاهی از خود» برسند و بدانند که آن‌ها یک مدل زبانی هستند که توسط انسان آموزش داده می‌شوند، وضعیت بدتر خواهد شد.

طبق اعلام یک مهندس کامپیوتر در «دانشگاه وندربیلت» آمریکا، آگاهی موقعیتی باعث می‌شود مدل زبانی هوش مصنوعی بداند که آیا اکنون در وضعیت آزمایشی توسط محققان قرار دارد یا اینکه مرحله آزمایشی به اتمام رسیده و با مردم جامعه در حال ارتباط است. در صورتی که هوش مصنوعی از این موضوع آگاه شود می‌تواند نحوه تعامل خود با مخاطبش را تغییر دهد و در بدترین سناریو،‌ رفتارهای زیان‌آوری از خود نشان دهد و در پاسخ‌هایش از جملات نامناسب و سوگیرانه استفاده کند.

این تیم تحقیقاتی در جریان بررسی‌های خود بر موضوعی به نام «استدلال خارج از چارچوب» متمرکز شد که می‌تواند گواهی بر وجود آگاهی موقعیتی در مدل‌های زبانی باشد. محققان برای این کار یک مدل‌ زبانی را در معرض آزمایشی قرار دادند که پیش از آن هیچ مثالی از چگونگی انجام این آزمایش در اختیار این مدل زبانی قرار نگرفته بود. وقتی مدل زبانی در معرض آزمایش یادشده قرار گرفت، در کمال تعجبِ محققان توانست با استفاده از استدلال خارج از چارچوب،‌ آن را به درستی انجام دهد.

با این وجود،‌ برخی محققان معتقدند که استدلال خارج از چارچوب نمی‌تواند معیار دقیقی برای ارزیابی وجود آگاهی موقعیتی باشد و مدل‌های زبانی کنونی هنوز با این آگاهی فاصله زیادی دارند. در مجموع،‌ انجام چنین آزمایشاتی می‌تواند یک نقطه آغاز برای نظارت بر رفتارهای هوش مصنوعی باشد تا پیش‌بینی ظهور آگاهی موقعیتی در مدل‌های زبانی با دقت بالایی انجام شود؛‌ اتفاقی که می‌تواند از رفتارهای خطرناک هوش مصنوعی در آینده پیشگیری کند.

۲۲ شهریور ۱۴۰۲ - ۰۵:۳۹
کد خبر: 46927
منبع: اکو ایران

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha