CHATGPT: یک کابوس حریم خصوصی؟ | TechRadar
اگر از ما خواسته شود که سال را در فناوری توصیف کنیم، موضوع غالب هوش مصنوعی و به طور خاص تر ChatGPT خواهد بود.
مرورگرهای وب محبوب برای راه اندازی بهترین نسخه ربات چت هوش مصنوعی خود با یکدیگر رقابت می کنند. سازندگان محتوا با بهرهبرداری از فرصتهای جدیدی که از چنین نرمافزار قدرتمندی به دست میآیند، ویروسی میشوند. برنامه نویسان رایانه در مورد داشتن ابزاری برای کمک به حل مشکلات کدنویسی هیجان زده می شوند.
با این حال، پتانسیل باورنکردنی ChatGPT تنها یک طرف ماجرا است. با افزایش محبوبیت نرم افزار، نگرانی های مربوط به حفظ حریم خصوصی در مورد نحوه جمع آوری و استفاده از داده های افراد توسط ابزار توسعه یافته OpenAI و سایر مدل های زبان بزرگ (LLM) نیز افزایش می یابد.
والتر لاپرت، کارشناس فناوری و مهندسی، رئیس Triad Drones، به TechRadar گفت: «سرعت رشد سریع هوش مصنوعی نگرانکننده است و حتی رهبران ارشد هوش مصنوعی در جهان اخیراً یک تعلیق برای کاهش سرعت توسعه هوش مصنوعی و جستجوی راههایی برای تنظیم آن پیشنهاد کردهاند. .
تا کنون، ایتالیا تنها کشوری است که ممنوعیت ChatGPT را به دلیل نقض قوانین GDPR اعمال کرده است. و در حالی که ایتالیایی ها به طور فزاینده ای خدمات VPN را برای دور زدن بلوک دانلود می کنند، یک گروه کاری جدید اتحادیه اروپا برای بررسی بیشتر این موضوع تشکیل شده است. قوانین جدید هوش مصنوعی در جاهای دیگر نیز مورد بحث قرار گرفته است، از جمله بریتانیا، ایالات متحده و کانادا.
با این حال، تنظیم LLM بدون چالش نیست. بیایید ببینیم چرا.
چگونه ChatGPT داده های شخصی را جمع آوری می کند
اولین چیزی که باید در مورد ChatGPT در نظر بگیرید این است که یک مدل زبان بزرگ برای انجام وظایف خود به چه چیزی نیاز دارد. و پاسخ این است که داده ها، داده های زیاد – در واقع هر چه بیشتر باشد بهتر است.
LLM ها هر گوشه ای از اینترنت را می خراشند – از کتاب ها و مقالات گرفته تا وب سایت ها و پست های رسانه های اجتماعی – تا به اصطلاح “داده های آموزشی” را جمع آوری کنند. لاپرت توضیح داد: “اگر در مورد بهترین غذاهای حیوانات خانگی در سال 2019 نظر داده اید، این احتمال وجود دارد که در سیستم ChatGPT باشد.”
جمع آوری چنین حجم عظیمی از داده ها به چند دلیل مشکل ساز است، زیرا تا حدی در تضاد با قوانین فعلی حفظ حریم خصوصی داده ها، هر کجا که وجود داشته باشد، است.
برای شروع، OpenAI دارد هرگز از مردم برای استفاده از داده هایشان رضایت نخواستند. درست است که این اطلاعات ممکن است از قبل عمومی باشد، اما استفاده از آن نیز وجود دارد می رود در برابر چیزی که کارشناسان حریم خصوصی نامیده اند یکپارچگی زمینه. این مفهوم حقوقی ایجاب می کند که اطلاعات یک فرد خارج از زمینه اصلی خود توزیع نشود.
این نیز است بررسی اینکه کدام اطلاعات ذخیره شده است برای افراد امکان پذیر نیست یا متعاقباً درخواست کرد که این مورد حذف شود. را حق فراموش شدن یک حرف اضافه مهم تحت GDPR است و به هر فردی اجازه می دهد تا در صورت درخواست، سوابق داده های شخصی خود را پاک کند.
مسئله بزرگ دیگر این است که ChatGPT و نرم افزارهای مشابه نیز با a مشخص می شوند تمایل به طرح ادعاهای نادرست یا نادرست. این می تواند منجر به انتشار اخبار جعلی شود که به راحتی می تواند به اعتبار افراد آسیب برساند.
به ویژه نماد توانایی ChatGPT در انتشار اطلاعات نادرست، یک اتهام آزار جنسی نادرست است. (در برگه جدید باز می شود) علیه یک استاد حقوق آمریکایی مطرح شد – ارجاع مطمئن به منابع جعلی به وضوح خطر واقعی زندگی از چت ربات های هوش مصنوعی را نشان می دهد. حتی بدتر از آن، این کار را با استفاده از داده ها بدون رضایت قربانیان خود انجام می دهد.
تا کنون، به نظر نمی رسد OpenAI برای کاهش چنین خطراتی کار زیادی انجام دهد.
درو برونیگ، معاون استراتژی در Precisely، در یک پست وبلاگی نوشت: “به جای ایجاد بحث در مورد چگونگی ادامه، ارتباطات و اسناد آنها یا به طور کامل موضوع را نادیده می گیرند یا در پشت عبارات مبهم پنهان می شوند.” (در برگه جدید باز می شود)، با اشاره به عدم ذکر شیوه های داده آموزشی آنها در سیاست حفظ حریم خصوصی خود.
سیاست حفظ حریم خصوصی تهاجمی ChatGPT
نه تنها داده های جمع آوری شده توسط LLM ها مشکل ساز است، بلکه اطلاعاتی که نرم افزار در مورد هر یک از کاربران خود حفظ می کند نیز مشکل ساز است.
خوزه بلایا، مدیر مهندسی در دسترسی به اینترنت خصوصی (PIA) میگوید: «یکی از خطرات برای حریم خصوصی کاربران، حجم زیادی از دادههای شخصی است که میتوان توسط ChatGPT ذخیره کرد و روشهای غیرمجاز که سیاست حفظ حریم خصوصی آنها اجازه استفاده از آن را میدهد.» به TechRadar گفت.
ارائه دهنده VPN یک نکته منصفانه را مطرح می کند. سیاست حفظ حریم خصوصی OpenAI (در برگه جدید باز می شود) در واقع، بسیار دور از در نظر گرفتن حفظ حریم خصوصی دوستانه است.
ChatGPT حجم عظیمی از داده های کاربران از جمله آدرس IP، جزئیات مرورگر، تعامل با سایت ها و همچنین فعالیت های مرور آنها را در طول زمان جمع آوری می کند. کاربران حتی نمی توانند برای ایمنی بیشتر از آدرس های ایمیل یا رمزهای عبور پنهان استفاده کنند. OpenAI همچنین بیان می کند که این شرکت می تواند اطلاعات شخصی کاربران را “بدون اطلاع بیشتر” در اختیار اشخاص ثالث قرار دهد.
به گفته Blaya، اگر به دقت محافظت نشود، این حجم عظیم از داده های شخصی می تواند به طور بالقوه به دست مجرمان سایبری بیفتد که یکی دیگر از خطرات فزاینده ChatGPT است. این چیزی است که ممکن است در 20 مارس رخ دهد، زمانی که یک اطلاعات درز کرد (در برگه جدید باز می شود) به طور موقت سابقه چت و داده های صورتحساب برخی از مشترکین ChatGPT Plus را برای همه کاربران فاش کرد.
ما یک مشکل مهم در ChatGPT داشتیم که دلیل آن یک اشکال در یک کتابخانه منبع باز بود، که اکنون رفع آن منتشر شده است و ما به تازگی اعتبارسنجی را به پایان رسانده ایم. درصد کمی از کاربران می توانند عناوین سابقه مکالمه کاربران دیگر را ببینند. ما در مورد این احساس وحشتناکی داریم22 مارس 2023
با وجود خطرات مشابه ناشی از استفاده از بسیاری از خدمات دیجیتال دیگر، Blaya معتقد است که ابزارهای هوش مصنوعی این موارد را نگرانکنندهتر میکنند.
او گفت: «تفاوت این است که وقتی هوش مصنوعی به ترکیب اضافه میشود، این پلتفرمها میتوانند هم با کاربر و هم با اطلاعاتی که به آن داده میشود به شیوهای کاملاً جدید درگیر شوند و در طول مسیر اطلاعات بیشتری به دست آورند و اطلاعاتی را که به دست میآورند با آنها به اشتراک بگذارند. سایر کاربران.”
این مشکلات زمانی پیچیدهتر میشوند که شرکتهایی هستند که چت بات را با دادههای شخصی مشتریان خود تغذیه میکنند.
ChatGPT فرصت های جدیدی را برای سازمان ها باز کرده است تا برخی از وظایف کاری خود را به نحو احسن انجام دهند. با این حال، همانطور که تصادف سامسونگ نشان داد، اشتباهات شرکتها با استفاده از ChatGPT میتواند به راحتی به حریم خصوصی مشتریانشان تمام شود.
به عنوان یک قاعده کلی، ما همیشه باید در نظر داشته باشیم که “هر داده ای که به اشتراک گذاشته می شود می تواند توسط پلتفرم برای اهداف آموزشی استفاده شود و به عنوان پاسخی به سایر کاربران ChatGPT به اشتراک گذاشته شود.”
چالش های تنظیم نرم افزار هوش مصنوعی
از آنجایی که محبوبیت ChatGPT رو به افزایش است و آخرین پیشرفتها مانند ChatGPT-4 منتشر میشود، دولتها در تلاش برای ادامه دادن هستند. و با توجه به نحوه کار LLM ها، ایجاد قوانین هوش مصنوعی که بتواند حریم خصوصی شهروندان را ایمن کند، چالش برانگیزتر از حد انتظار شده است.
هوش مصنوعی یک حوزه فوقالعاده دشوار برای تنظیم است، تا حدی به این دلیل که این یک فناوری جدید و به سرعت در حال توسعه است و تا حدودی به این دلیل که دامنه آن بسیار گسترده است که در تلاش برای تنظیم روش جمعآوری دادهها، اساساً در تلاش برای تنظیم کردن آن هستید. بلایا به TechRadar گفت: کل اینترنت.
“این یک چالش گسترده و پیچیده است – حتی برای متخصصان.”
نرم افزارهای مبتنی بر هوش مصنوعی کاربردهای مختلفی دارند و طیف وسیعی از برنامه ها و سناریوها را باز می کنند که نیاز به تنظیم دارند.
هنگامی که قدرت عظیم ابزارهای ChatGPT را در نظر می گیریم، حفاظت های اساسی که قبلاً در کدهای LLM تعبیه شده اند، به وضوح کافی نیستند. قبلاً نمونههای زیادی از کاربران وجود داشته است که رباتهای چت هوش مصنوعی را برای دور زدن قوانین ایمنی از جیلبریک میکنند.
همچنین این سؤال وجود دارد که آیا واقعاً می توان اطلاعات خاصی را از داده های متن آموزشی فعلی که مغز مصنوعی ChatGPT و نرم افزارهای مشابه را تشکیل می دهد حذف کرد.
هر داده ای که به اشتراک گذاشته می شود می تواند توسط پلتفرم برای اهداف آموزشی استفاده شود و به عنوان پاسخی برای سایر کاربران ChatGPT به اشتراک گذاشته شود.
خوزه بلایا، دسترسی به اینترنت خصوصی
با وجود این مشکلات، Blaya معتقد است که ملاحظات اصلی قانونگذاران باید این باشد که “چگونه از حریم خصوصی افراد بدون ایجاد مانع در توسعه و پیشرفت و بدون محدود کردن آزادی دیجیتال کاربران محافظت شود.”
شرکتهای هوش مصنوعی باید بالاترین استانداردهای مدیریت ریسک را رعایت کنند تا مطمئن شوند که تمام تلاش خود را برای کاهش ریسکهای فوقالذکر انجام میدهند.
او گفت: «این باید شامل نحوه ذخیره و استفاده از دادههای کاربران، تعامل با اشخاص ثالث، و خطرات گستردهتر مرتبط با توسعه هوش مصنوعی، از جمله پیامدهای مربوط به جرایم سایبری و اطلاعات نادرست باشد».
در این بین، PIA فکر می کند که OpenAI باید تغییراتی را در این جهت نیز ایجاد کند. این موارد شامل حذف نیاز به وارد کردن شماره تلفن همراه برای استفاده از پلتفرم ChatGPT و همچنین محدود کردن مقدار دادههای جمعآوریشده کاربر است.
لاپرت از Triad Drones به TechRadar گفت: «از آنجایی که کشورهای مختلف در سراسر جهان به تلاش برای برنده شدن در «مسابقه هوش مصنوعی» ادامه میدهند، باید قوانین و مقررات سختگیرانهای وضع شود تا هوش مصنوعی حقوق اساسی انسانها را مختل نکند.
آینده برای حفظ حریم خصوصی کاربر چیست؟
OpenAI در حال حاضر به درخواست نظر پاسخی نداد. با این حال، ChatGPT تنها بخشی از موضوع است.
با ورود شرکتهای بیشتر و بیشتری به بازی هوش مصنوعی، دولتها باید برای ایجاد چارچوبی که بتواند آینده هیجانانگیز و در عین حال غیرقابل انکار ترسناک پیش رو را تنظیم کند، عجله کنند.
در همین حال، تک تک کاربران باید تمام اقدامات لازم را برای حفظ حریم خصوصی دیجیتال خود انجام دهند. اینها شامل محافظت از ناشناس بودن آنها هنگام مرور وب با یک VPN امن، مبارزه با ردیابی وب با یک مسدود کننده تبلیغات قابل اعتماد، و همچنین دو بار فکر کردن قبل از به اشتراک گذاری اطلاعات آنلاین یا با یک ربات چت هوش مصنوعی است. هر چقدر هم که انسان به نظر می رسند، فقط ماشین هایی هستند که برای حفظ هیچ رازی ساخته شده اند.
Blaya گفت: “چه آنها در حال نوشتن یک وبلاگ باشند، چه در یک انجمن پست بگذارند یا در رسانه های اجتماعی، برای مردم مهم است که آگاه باشند و در نظر داشته باشند که پلتفرم یادگیری ماشین به چه راحتی می تواند اکنون این اطلاعات را پیدا کند، استخراج کند، مناسب سازی کند، متنی مجدد کند و به اشتراک بگذارد. هر کسی.”