(?Is OpenAI’s ChatGPT threatening privacy)
آیا ربات «چت جی پی تی» حریم خصوصی اشخاص را تهدید می کند؟
مقدمه
جهان در سالهای اخیر شاهد نوآوری و پیشرفت در حوزه هوش مصنوعی بوده است. یکی از چالشهای اصلی در این حوزه، نقض حریم خصوصی اشخاص در نتیجه استفاده از هوش مصنوعی است. این امر ضرورت بحث و بررسی بیشتر و لزوم آشنایی حقوقدانان با این صنعت را مطرح میسازد.
ربات چت جیپیتی (ChatGPT) محصول جدید هوش مصنوعی است که با کاربردهای متعدد و تسهیل امور به نگرانیها در خصوص حفظ حریم خصوصی کاربران دامن زده است. نوشتار حاضر به بررسی دغدغههای مربوط و راهکار مناسب برای این موضوع میپردازد.
در هفتههای اخیر شور و هیجان قابلتوجهی برای چت جیپیتی، چتبات شرکت اپن ای آی (OpenAI)، ایجاد شده است. شریک نشدن در این هیجان در حالی که میتوان از این چتبات درخواست نمود که «شعری درباره حق ثبت اختراع به سبک شکسپیر بسراید» و «پاسخی منسجم و اصیل در صفحه نمایش دریافت کرد!»، کار سختی است.
چت جیپیتی به عنوان یک مدل زبانی توسعه یافته توسط شرکت اپن ای آی، قادر به درک و فهم زبان انسان و پاسخ به آن است. این ربات هوش مصنوعی میتواند زبان انسانها را بفهمد، به پرسشها پاسخ دهد و قطعات خلاقانه و حتی کدهای رایانهای بنویسد. چت جیپیتی با آموزشی که بهواسطه مجموعههای داده بزرگ از اینترنت یافته است، میتواند پاسخهایی مشابه انسان تولید کند، همانند یک برنامه رایانهای که میتواند همچون انسان درک کند و به پرسشها پاسخ دهد.
بهنظر میرسد که تواناییهای این چتبات برای درک زبان انسان قابل توجه و بیانتهاست ، به گونهای که قادر به پردازش میلیاردها داده و ترکیب و تلفیق پرسشهای انسانی و ارائه پاسخهایی مختصر و مفید است. برای یک وکیل در حوزه ثبت اختراع، ممکن است این پرسش پیش آید که این چتبات چگونه میتواند زندگی حرفهای او را تغییر دهد و یا حتی پایانی برای آن باشد. اگر یک وکیل برای خواندن یک گزارش 20 دقیقه وقت میگذارد، این چتبات میتواند این کار را در کمتر از بیست ثانیه انجام دهد. گاه لازم است ساعتها صرف بررسی اسناد و یافتن نکات جدید شود، در حالی که چت جیپیتی قادر به انجام این کار در چند ثانیه خواهد بود.
اما هدف از این نوشتار، توضیح سودمندی هوش مصنوعی نیست، بلکه نگرانی اصلی در مورد حفظ حریم خصوصی افراد است.
در این راستا، از چت جیپیتی سؤال شد: «آیا دادههای ورودی به چت، تبدیل به بخشی از دادههای آموزشی میشوند؟»، جیپیتی پاسخ داد: «در حالی که مدل قادر است متن جدیدی را بر اساس الگوهایی که یاد گرفته، تولید کند، هیچ ورودی خاصی را از کاربران نگهداری نمیکند. شرکت اپن ای آی به عنوان خالق چت جیپیتی، متعهد به حفظ حریم خصوصی کاربران خود است و دادههای ورودی کاربر را با هیچ شخص ثالثی به اشتراک نمیگذارد. ممکن است برخی از دادههای ورودی کاربر در دادههای آموزشی استفاده شود، اما شناسایی آنها به طور خاص ممکن نیست. توجه به این نکته نیز ضروری است که ورودیهای ارائه شده به مدل، ذخیره نمیشوند و برای آموزش بیشتر مدل استفاده نخواهند شد؛ بلکه تنها برای تولید پاسخ به ورودی خاص ارائه شده توسط کاربر، استفاده میشوند.»
در شرایط استفاده از خدمات شرکت اپن ای آی (OpenAI’s terms of use) مقرر شده که ممکن است از دادههای ورودی کاربران برای «توسعه و بهبود خدمات» استفاده شود، اما این گزینه هم وجود دارد که کاربر بتواند ضمن تماس با شرکت، انصراف خود از این استفاده را اعلام نماید. نتیجه آنکه، بهتر است از وارد کردن هرگونه اطلاعات محرمانه به چت جیپیتی که در حال حاضر در وبسایت اپنایآی در دسترس است، خودداری شود.
اگرچه نباید کاملاً ناامید شد، مایکروسافت اعلام کرده است که به زودی چت جیپیتی را به عنوان خدمتی با پلتفرم هوش مصنوعی خود ارائه خواهد کرد، «ازور» (Azure). ازور تضمین میکند که دادههای آموزشی وارد شده به مدل مشتری تنها برای آموزش مدل مشتری استفاده میشود و نه برای سایر مدلهای مایکروسافت. بدون شک با گذر زمان، این موضوع به ویژگی گسترده قابل دسترسی تبدیل خواهد شد که توسط سایر بازیگران این صنعت که به سوی استفاده وسیع از هوش مصنوعی پیش رفتهاند، نیز ارائه خواهد شد.
منبع:
patentlawyermagazine
مترجمها:
دکتر شیما عطّار، دکتر سحر کریمنیا
میتوانید برای خواندن اخبار دیگر جهان به صفحه پویش های حقوقی پژوهشکده حقوقی شهر دانش مراجعه کنید.