آیا ربات «چت جی پی تی» حریم خصوصی اشخاص را تهدید می­ کند؟

(?Is OpenAI’s ChatGPT threatening privacy)

مقدمه

جهان در سال‌های اخیر شاهد نوآوری و پیشرفت در حوزه هوش مصنوعی بوده است. یکی از چالش‌های اصلی در این حوزه، نقض حریم خصوصی اشخاص در نتیجه استفاده از هوش مصنوعی است. این امر ضرورت بحث و بررسی بیشتر و لزوم آشنایی حقوقدانان با این صنعت را مطرح می‌سازد.

ربات چت جی‌پی‌تی (ChatGPT) محصول جدید هوش مصنوعی است که با کاربرد­های متعدد و تسهیل امور به نگرانی‌ها در خصوص حفظ حریم خصوصی کاربران دامن زده است. نوشتار حاضر به بررسی دغدغه‌های مربوط و راهکار مناسب برای این موضوع می‌پردازد.

در هفته‌های اخیر شور و هیجان قابل‌توجهی برای چت جی‌پی‌تی، چت‌بات شرکت اپن ای آی (OpenAI)، ایجاد شده است. شریک نشدن در این هیجان در حالی که می­توان از این چت‌بات درخواست نمود که «شعری درباره حق ثبت اختراع به سبک شکسپیر بسراید» و «پاسخی منسجم و اصیل در صفحه نمایش دریافت کرد!»، کار سختی است.

چت جی‌پی‌تی به عنوان یک مدل زبانی توسعه یافته توسط شرکت اپن ای آی، قادر به درک و فهم زبان انسان و پاسخ به آن است. این ربات هوش مصنوعی می­تواند زبان انسان‌ها را بفهمد، به پرسش‌ها پاسخ دهد و قطعات خلاقانه و حتی کدهای رایانه‌ای بنویسد. چت جی‌پی‌تی با آموزشی که به‌واسطه‌ مجموعه‌های داده بزرگ از اینترنت یافته است، می­تواند پاسخ‌هایی مشابه انسان تولید کند، همانند یک برنامه رایانه‌ای که می‌تواند همچون انسان درک کند  و به پرسش‌ها پاسخ دهد.

به‌نظر می­رسد که توانایی‌های این چت‌بات برای درک زبان انسان قابل توجه و بی‌انتهاست ، به گونه‌ای که قادر به پردازش میلیاردها داده و ترکیب و تلفیق پرسش‌های انسانی و ارائه پاسخ‌هایی مختصر و مفید است. برای یک وکیل در حوزه ثبت اختراع، ممکن است این پرسش پیش آید که این چت‌بات چگونه می‌تواند زندگی حرفه‌ای او را تغییر دهد و یا حتی پایانی برای آن باشد. اگر یک وکیل برای خواندن یک گزارش  20 دقیقه وقت می­گذارد، این چت‌بات می‌تواند این کار را در کمتر از بیست ثانیه انجام دهد. گاه لازم است ساعت‌ها صرف بررسی اسناد و یافتن نکات جدید شود، در حالی که چت جی‌پی‌تی قادر به انجام این کار در چند ثانیه خواهد بود.

اما هدف از این نوشتار، توضیح سودمندی هوش مصنوعی نیست، بلکه نگرانی اصلی در مورد حفظ حریم خصوصی افراد است.

در این راستا، از چت جی‌پی‌تی سؤال شد: «آیا داده‌های ورودی به چت، تبدیل به بخشی از داده‌های آموزشی می‌شوند­؟»، جی‌پی‌تی پاسخ داد: «در حالی که مدل قادر است متن جدیدی را بر اساس الگوهایی که یاد گرفته، تولید کند، هیچ ورودی خاصی را از کاربران نگهداری نمی­کند. شرکت اپن ای آی به عنوان خالق چت جی‌پی‌تی، متعهد به حفظ حریم خصوصی کاربران خود است و داده‌های ورودی کاربر را با هیچ شخص ثالثی به اشتراک نمی‌گذارد. ممکن است برخی از داده‌های ورودی‌ کاربر در داده‌های آموزشی استفاده شود، اما شناسایی آن­ها به طور خاص ممکن نیست. توجه به این نکته نیز ضروری است که ورودی‌های ارائه شده به مدل، ذخیره نمی‌شوند و برای آموزش بیشتر مدل استفاده نخواهند شد؛ بلکه تنها برای تولید پاسخ به ورودی خاص ارائه شده توسط کاربر، استفاده می‌شوند.»

در شرایط استفاده از خدمات شرکت اپن ای آی (OpenAI’s terms of use) مقرر شده که ممکن است از داده‌های ورودی کاربران برای «توسعه و بهبود خدمات» استفاده شود، اما این گزینه هم وجود دارد که کاربر بتواند ضمن تماس با شرکت، انصراف خود از این استفاده را اعلام نماید. نتیجه آن­که، بهتر است از وارد کردن هرگونه اطلاعات محرمانه به چت جی‌پی‌تی که در حال حاضر در وبسایت اپن‌ای‌آی در دسترس است، خودداری شود.

اگرچه نباید کاملاً  ناامید شد، مایکروسافت اعلام کرده است که به زودی چت جی‌پی‌تی را به عنوان خدمتی با پلتفرم هوش مصنوعی خود ارائه خواهد کرد، «ازور» (Azure). ازور تضمین می­کند که داده‌های آموزشی وارد شده به مدل مشتری تنها برای آموزش مدل مشتری استفاده می­شود و نه برای سایر مدل‌های مایکروسافت. بدون شک با گذر زمان، این موضوع به ویژگی گسترده‌ قابل دسترسی تبدیل خواهد شد که توسط سایر بازیگران این صنعت که به سوی استفاده وسیع از هوش مصنوعی پیش رفته‌اند، نیز ارائه خواهد شد.

منبع:

patentlawyermagazine

مترجم‌ها:

دکتر شیما عطّار، دکتر سحر کریم­نیا

میتوانید برای خواندن اخبار دیگر جهان به صفحه پویش های حقوقی پژوهشکده حقوقی شهر دانش مراجعه کنید.

::اخبار مرتبط::

برای نوشتن دیدگاه باید وارد بشوید.
برای نوشتن دیدگاه باید وارد بشوید.
keyboard_arrow_up