به گزارش خبرداغ به نقل ازخبرآنلاین؛تینا مزدکی_هرش وارشنی، مهندس شاغل در بخش امنیت هوش مصنوعی کروم در گوگل، تاکید میکند که ابزارهای هوش مصنوعی به سرعت به یک شریک خاموش در زندگی روزمره ما تبدیل شدهاند و برای کارهایی چون تحقیق عمیق، کدنویسی و جستجوهای آنلاین بسیار مفید هستند. اما به دلیل ماهیت شغلیاش در تیم امنیت، او نسبت به نگرانیهای حریم خصوصی مرتبط با استفاده از هوش مصنوعی کاملاً آگاه است.
او که پیش از این در تیم حفظ حریم خصوصی گوگل کار میکرده، هشدار میدهد که مدلهای هوش مصنوعی برای تولید پاسخهای مفید از دادهها استفاده میکنند و کاربران باید از اطلاعات خصوصی خود محافظت کنند تا نهادهای مخرب مانند مجرمان سایبری و کارگزاران داده نتوانند به آنها دسترسی پیدا کنند. در این راستا، این متخصص امنیت چهار عادت را معرفی میکند که برای محافظت از دادهها در حین استفاده از هوش مصنوعی ضروری هستند:
گاهی اوقات، یک حس نادرست از صمیمیت با هوش مصنوعی باعث میشود افراد اطلاعاتی را به صورت آنلاین به اشتراک بگذارند که هرگز در حالت عادی این کار را نمیکردند. اگرچه شرکتهای هوش مصنوعی دارای کارمندانی هستند که برای بهبود جنبههای حریم خصوصی مدلهایشان تلاش میکنند، اما به هیچ وجه توصیه نمیشود جزئیاتی مانند اطلاعات کارت اعتباری، شمارههای شناسایی، آدرس منزل، سوابق پزشکی شخصی یا سایر اطلاعات هویتی (Personally Identifiable Information - PII) را با چتباتهای عمومی به اشتراک بگذارید.
بسته به نسخهای که استفاده میشود، اطلاعاتی که با چتباتهای عمومی به اشتراک گذاشته میشود، میتواند برای آموزش مدلهای آتی و تولید پاسخهای مرتبطتر مورد استفاده قرار گیرد. این موضوع میتواند منجر به "نشت آموزشی" (Training Leakage) شود، جایی که مدل، اطلاعات شخصی یک کاربر را حفظ میکند و بعداً آن را در پاسخ به کاربر دیگری بازگو میکند. علاوه بر این، خطر نقض دادهها وجود دارد که میتواند اطلاعات به اشتراک گذاشته شده با چتبات را فاش کند.
به گفته وارشنی، کاربران باید با چتباتهای هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند. اگر فردی حاضر نیست اطلاعاتی را روی یک کارت پستال بنویسد که ممکن است توسط هر کسی دیده شود، نباید آن را با یک ابزار عمومی هوش مصنوعی به اشتراک بگذارد.
تشخیص اینکه از یک ابزار هوش مصنوعی عمومی استفاده میکنید یا یک ابزار در سطح سازمانی (Enterprise-grade)، بسیار مهم است. در حالی که مشخص نیست مکالمات چگونه برای آموزش مدلهای عمومی استفاده میشوند، شرکتها میتوانند برای مدلهای «سازمانی» هزینه پرداخت کنند. در این مدلها، معمولاً مکالمات کاربران برای آموزش استفاده نمیشود و بنابراین برای کارمندان امنتر است که در مورد کارهای خود و پروژههای شرکت صحبت کنند.
میتوان این وضعیت را به داشتن مکالمهای در یک کافیشاپ شلوغ که ممکن است شنیده شود، در مقابل یک جلسه محرمانه در دفتر کار که در همان اتاق باقی میماند، تشبیه کرد.
گزارشهایی وجود داشته مبنی بر اینکه کارمندان به طور تصادفی دادههای شرکت را در اختیار چتجیپیتی قرار دادهاند. اگر روی پروژههای منتشر نشده شرکت کار میکنید، نباید برنامههای خود را با یک چتبات عمومی به دلیل خطر نشت اطلاعات به اشتراک بگذارید.
وارشنی تاکید میکند که پروژههای داخلی گوگل را با چتباتهای عمومی به اشتراک نمیگذارد و به جای آن از مدلهای سازمانی استفاده میکند، حتی برای کارهای کوچکی مانند ویرایش یک ایمیل کاری.

چتباتهای هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه میدارند، اما توصیه میشود برای حفظ حریم خصوصی در درازمدت، این تاریخچه را به طور منظم در هر دو مدل سازمانی و عمومی حذف کنید. به دلیل خطر به خطر افتادن حساب کاربری، این یک عادت احتیاطی خوب است.
وارشنی تجربه خود را بیان میکند که یک بار تعجب کرده بود که چتبات سازمانی جیمینای توانست آدرس دقیق او را بگوید، در حالی که به یاد نداشت آن را به اشتراک گذاشته باشد. مشخص شد که او قبلاً از آن خواسته بود تا در اصلاح یک ایمیل که شامل آدرسش بود، کمک کند. از آنجایی که این ابزار دارای ویژگیهای حافظه بلندمدت است، توانسته بود آدرس او را شناسایی و حفظ کند.
او توصیه میکند که برای جستجوی مواردی که نمیخواهید چتبات به خاطر بسپارد، از یک حالت ویژه، شبیه به حالت ناشناس (Incognito Mode)، استفاده کنید که در آن رباتها تاریخچه را ذخیره نمیکنند یا از اطلاعات برای آموزش مدلها استفاده نمیکنند. چتجیپیتی و جیمینای این قابلیت را "چت موقت" (Temporary Chat) مینامند.
بهتر است از ابزارهای هوش مصنوعی شناخته شده استفاده شود که احتمال بیشتری وجود دارد که دارای چارچوبهای حریم خصوصی واضح و سایر تدابیر امنیتی باشند. علاوه بر محصولات گوگل، وارشنی استفاده از ChatGPT از OpenAI و Claude از Anthropic را توصیه میکند.
همچنین بررسی سیاستهای حفظ حریم خصوصی هر ابزاری که استفاده میشود، مفید است. در بخش تنظیمات حریم خصوصی، کاربران میتوانند به دنبال گزینهای برای بهبود مدل برای همه باشند. با اطمینان از خاموش بودن این تنظیم، از استفاده مکالمات برای آموزش مدل جلوگیری میشود.
تکنولوژی هوش مصنوعی فوقالعاده قدرتمند است، اما باید احتیاط کرد تا اطمینان حاصل شود که دادهها و هویت ما هنگام استفاده از آن ایمن باقی میمانند.
منبع: businessinsider