### هشدار یک مهندس گوگل درباره امنیت در استفاده از هوش مصنوعی
تینا مزدکی _ هرش وارشنی، مهندس ارشد در بخش امنیت هوش مصنوعی کروم در گوگل، به نقش رو به رشد ابزارهای هوش مصنوعی در زندگی روزمره اشاره کرده و تاکید میکند که این ابزارها بهویژه در زمینههایی مانند کدنویسی و جستجوی آنلاین بسیار کارامد هستند. با این حال، او به عنوان یک کارشناس اخیراً در زمینه حفظ حریم خصوصی، از مشکلات حریم خصوصی ناشی از استفاده از هوش مصنوعی ابراز نگرانی کرده است.
وارشنی میگوید که مدلهای هوش مصنوعی معمولاً از دادههای شخصی برای تولید پاسخهای بهینه استفاده میکنند و از کاربران درخواست میکند تا نسبت به اطلاعات خصوصی خود هوشیار باشند. او چهار نکته کلیدی را برای حفاظت از دادهها در هنگام استفاده از این فناوریها ارائه میدهد:
#### ۱. رفتار با هوش مصنوعی مشابه کارت پستال عمومی
وی هشدار میدهد که کاربران نباید احساسی کاذب از صمیمیت با هوش مصنوعی داشته باشند و اطلاعات حساسی مانند شماره کارتهای اعتباری یا اطلاعات هویتی را به اشتراک بگذارند. وی تاکید میکند که اطلاعات مشترک میتواند برای آموزش مدلهای بعدی و احتمال نشت دادهها استفاده شود. به همین دلیل، کاربران باید با چتباتهای هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند و از به اشتراک گذاشتن اطلاعات خصوصی پرهیز کنند.
#### ۲. وضعیت ابزار را شناسایی کنید
وارشنی به اهمیت تشخیص نوع ابزار هوش مصنوعی اشاره کرده و میگوید که باید بدانید آیا از یک ابزار عمومی یا سازمانی استفاده میکنید. او توضیح میدهد که در مدلهای سازمانی معمولاً از مکالمات کاربران برای آموزش استفاده نمیشود و این مساله به حفاظت از دادههای شرکت کمک میکند.
او تجربهای را بیان کرد که در آن کارمندان به طور ناخواسته دادههای حساس شرکت را با چتباتهای عمومی به اشتراک گذاشتهاند. وارشنی همچنین تاکید کرد که خود او هرگز پروژههای داخلی گوگل را با ابزارهای عمومی در میان نمیگذارد.
#### ۳. پاککردن منظم تاریخچه مکالمات
وارشنی توصیه میکند که کاربران به طور مرتب تاریخچه مکالمات خود را پاک کنند تا حریم خصوصی آنان حفظ شود. او به تجربهای اشاره میکند که یک چتبات سازمانی توانسته نام و آدرس وی را بازگو کند، در حالیکه او به خاطر نداشت که چنین اطلاعاتی را به اشتراک گذاشته است.
با توجه به تواناییهای پیشرفته هوش مصنوعی و تهدیدات احتمالی، رعایت این نکات به کاربران کمک میکند تا در عین استفاده از این فناوریها، امنیت اطلاعات خود را حفظ کنند.در یک بررسی جدید، نکاتی درباره حفظ حریم خصوصی کاربران در تعامل با چتباتهای هوش مصنوعی ارائه شده است. متخصصان پیشنهاد میکنند که برای جستجوی اطلاعاتی که کاربران نمیخواهند چتباتها به یاد بیاورند، باید از حالتی مشابه به “حالت ناشناس” استفاده کرد. این حالت به نام “چت موقت” شناخته میشود و از ذخیرهسازی تاریخچه مکالمات جلوگیری میکند.
همچنین، استفاده از ابزارهای هوش مصنوعی معتبر به عنوان راهکاری دیگر پیشنهاد شده است. این ابزارها اغلب دارای سیاستهای حریم خصوصی شفاف و تدابیر امنیتی مشخصی هستند. از جمله ابزارهای قابل اعتماد میتوان به ChatGPT از OpenAI و Claude از Anthropic اشاره کرد.
کاربران باید حتماً سیاستهای حفظ حریم خصوصی ابزارهای مورد استفاده خود را مطالعه کنند. در بخش تنظیمات این ابزارها، گزینهای برای جلوگیری از استفاده دادهها برای بهبود مدل معمولاً وجود دارد که فعال کردن آن به حفظ حریم شخصی کمک میکند.
با توجه به قدرت بالای تکنولوژی هوش مصنوعی، مهم است که کاربران در حفظ امنیت دادهها و هویت خود در این فضا احتیاط لازم را به خرج دهند.











