به گزارش خبرداغ به نقل ازخبرآنلاین؛ به نقل از زومیت، بسیاری از چتباتهای هوش مصنوعی بهگونهای برنامهریزی شدهاند که در صورت اشارهی کاربر به آسیب به خودش یا دیگران، ویژگیهای ایمنی را فعال کنند. پژوهشها نشان میدهند مکانیزمهای محافظتی چتباتها بههیچ وجه بینقص نیستند.
آدام رین از نسخهی پولی ChatGPT-4o استفاده میکرد و این هوش مصنوعی هنگام درخواستهای رین اغلب به او میگفت که بهفکر دریافت کمک حرفهای باشد یا به شمارههای کمکی زنگ بزند؛ اما او توانست با بیان اینکه در مورد داستانهای تخیلی تحقیق میکند، چتبات مورد بحث را دور بزند.
مقامات OpenAI در واکنش به کاستیهای چتباتهای خود گفتند که احساس مسئولیت عمیقی میکنند و همواره درحال بهبود نحوهی پاسخگویی مدلهایشان در مواقع حساس هستند. این شرکت گفت مکانیزمهای امنیتی معمولاً هنگام مکالمات کوتاه و متدوال قابل اطمینانتر هستند و ممکن است در گفتوگوهای طولانی کمتر از همیشه قابلاعتماد باشند.
تعداد دیگری از شرکتهای حوزهی هوش مصنوعی هم با مشکلات مشابهی دستوپنجه نرم میکنند و علیه آنها شکایت شده است.