کرسی کاربرد هوش مصنوعی در پیشگیری از جرم

Instagram
Telegram
WhatsApp
LinkedIn

کرسی‌های نظریه‌پردازی:

 کرسی کاربرد هوش مصنوعی در پیشگیری از جرم

ارائه‌کننده:

دکتر مهرنوش ابوذری (عضو هیات علمی دانشکده حقوق و علوم سیاسی دانشگاه تهران)

ناقدان:

ناقد نخست: دکتر محمد فرجیها (عضو هیات علمی دانشگاه تربیت مدرس)

ناقد دوم:دکتر بهزاد لک (عضو هیات علمی دانشگاه علوم انتظامی امین)

ناقد سوم: دکتر بهرام بیات (عضو هیات علمی دانشگاه عالی دفاع ملی)

با حضور مهمان ویژه: جناب آقای سید جمال حسینی (کارشناس مسئول پیشگیری از جرایم سایبری در
معاونت اجتماعی و پیشگیری از وقوع جرم قوه قضاییه)

دبیرعلمی:

دکتر راضیه صابری

زمان برگزاری:

سه شنبه 2 اذز 1400 , ساعت 17

مکان برگزاری:

پژوهشکده حقوقی شهر دانش

گزارش اجلاسیه:

روز سه‌‌شنبه مورخ 02/09/1400 پژوهشکده حقوقی شهر دانش با استعانت از پروردگار متعال، کرسی نظریه‌پردازی با عنوان «کاربرد هوش مصنوعی در پیشگیری از جرم» را برگزار نمود.

سؤال تحقیق به شرح ذیل بود:

کاربرد هوش مصنوعی در پیشگیری از جرم و تحقیقات جنایی چیست و استفاده از آن، چه منافع و مضراتی به همراه دارد؟

در ابتدا دبیر جلسه از ارائه‌کننده، دکتر مهرنوش ابوذری درخواست کرد تا به تشریح نظریه خود بپردازد. دکتر ابوذری با انگاره آگاهی و اشراف اساتید و مخاطبین در مورد مفاهیم هوش مصنوعی و پیشگیری از جرم، مدخل سخن را با این مقدمه آغاز کرد: « بشریت در آستانه عصری ایستاده که به نظر می رسد ربات ها و مظاهر مختلف هوش مصنوعی که روزبه روز پیچیده تر می شوند، کاملا آماده اند که یک انقلاب صنعتی نوین را شکوفا کنند. هوش مصنوعی به عنوان یک تکنولوژی که در صدد شبیه سازی هوش طبیعی انسان و جانشینی و دستیاری هوش انسان و حذف محدودیت های بشری می باشد. فارغ از اینکه هوش مصنوعی در چه بخش هایی مورد استفاده قرار گیرد، پیامدهای آن می تواند سطوح مختلف از اجرای ساده وظایف گرفته تا تصمیم گیری های سریع و پیچیده را تحت تأثیر قرار دهد. در عصر پیشرفت بسیار سریع هوش مصنوعی و فناوری رباتیک، بی توجهی به فرصت ها و چالش های این حوزه جامعه را با مسائلی پیش بینی نشده روبرو خواهد کرد. لذا کشورهای پیشرو در این حوزه تلاش می کنند ضمن پذیرش و تلاش در توسعه آن، در زمینه قانون های حاکم بر طراحی، ساخت، تجاری سازی و مسائل اجتماعی، اخلاقی و امنیتی آن نیز پیشتاز باشند.

هوش مصنوعی یکی از علوم جدیدی است که حدود یک قرن از ظهور آن می­گذرد و توانسته با اثبات قابلیت­ها و کارآمدی­هایش تأثیر غیرقابل انکاری بر اکثر عرصه­های زندگی بشر بگذارد. از علوم مهندسی تا پزشکی و روانشناسی و علوم انسانی، کاربردهای هوش مصنوعی رو به افزایش و توسعه و تکامل است و چشم­انداز آینده، حضور خودمختار و مستقل آن در تمام عرصه­های زندگی انسان­ها را نشان می­دهد. هوش مصنوعی شاخه ایست از علم کامپیوتر که ملزومات محاسباتی اعمالی همچون ادراک ، استدلال و یادگیری را بررسی کرده و سیستمی جهت انجام چنین اعمالی ارائه می­دهد. که این فناوری می‌خواهد به عملکرد و رفتار بشری نزدیک شود؛ در واقع این فناوری تلاش می‌کند مانند یک انسان فکر و عمل کند».

وی در ادامه ضمن تأکید بر نقش هوش مصنوعی در آینده زندگی بشریت ادامه داد: « هوش مصنوعی در دنیای تکنولوژی امروز با اثبات کارآمدی و قابلیت هایش توانسته جریان انقلاب چهارم را ایجاد نموده و همچون موجی عظیم و قدرتمند تمام عرصه های زندگی بشر را دربرگرفته و به یاری یا جایگزینی بسیاری از مشاغل برخاسته استپیش بینی می شود هوش مصنوعی در طی حدود یک دهه دیگر، به طور عمده در همه سیستم ها و ابزارهای اصلی مدنی نفوذ کند و پایگاه نرم افزاری آنها را ایجاد کند. به علاوه، طی دو تا سه دهه دیگر سبک و سیاق دنیا را دگرگون کند. قدرتهای بزرگ از جمله ایالات متحده، اتحادیه اروپا و چین برای توسعه، تصویب  ارتقاء هوش مصنوعی در زمینه های مختلف، اسناد سیاست­گذاری و نقشه راه ارائه داده اند».

این عضو هیأت علمی دانشگاه تهران در ادامه به کاربردهای هوش مصنوعی در فضای حقوقی پرداخت و اظهار داشت: « هوش مصنوعی ، به طور فزاینده­ای در تحقیقات جنائی و پیشگیری از جرم جهت تحلیل و تصمیم­گیری و پردازش اهمیت یافته­ که باعث دسترسی سریع و کارآمد به اطلاعات موجود از جمله سوابق اثر انگشت، آزمایش­های دی ان ای، شناسایی چهره مظنونین، ذخیره اطلاعات و انتقال آنها و تحلیل داده­ها در الگوریتم­ها شده است که کمک قابل توجهی در عملکرد پلیس و تصمیم گیری در حوزه پیشگیری از جرم و برنامه ریزی شهری و برخورد با بزهکاران می کند. کاربرد هوش مصنوعی به طور کلی در سیستم قضائی کشورها و تحقیقات جنائی تحولات عظیم و مطلوبی ایجاد خواهد کرد. با توجه به افزایش مخاصمات و مشکلات انسان­ها در جوامع امروزین به دلیل اقتضائات سبک زندگی مدرن چه در سطح مسائل حقوقی و صنفی و چه کیفری، کارگزاران انسانی سیستم قضائی نمی­تواند پاسخگوی حجم عظیم مراجعات و تصمیم­گیری بر اساس داده­های فراوان امروزه باشد. این امر هم در عملکرد کارمندان اداری دستگاه قضا دیده می­شود و هم در عملکرد  قضات و وکلا و ضابطین. حضور هوش مصنوعی می­تواند بسیاری از مشاغل غیرضروری را حذف کرده و نیروهای انسانی خبره و صلاحدید قضائی را به سمت کارآمدی و تسریع و دقت بیشتر سوق دهد که نهایتا رضایتمندی مراجعین به دستگاه قضا و احقاق حق بهتر را در پی خواهد داشت.»

وی در ادامه به تشریح کاربرد پیشگیری با استفاده از فناوری هوش مصنوعی پرداخت و گفت: « این امر به بهبود و تسریع عملکرد پلیس نیز کمک کرده، دقت در تحقیقات جنائی را افزایش داده و نقش موثری در پیشگیری از بزهکاری و رفتارهای پرخطر جامعه خواهد داشت. همچنین در اجرای عدالت پیشگیرنده و ایجاد امنیت در جامعه و بهبود تصمیمات قضائی جهت اعطای نهادهای ارفاقی نقش موثری  ایفا خواهد نمود. در این کرسی به قابلیت ها و ظرفیت های هوش مصنوعی در پیشگیری از جرایم و نمونه های مشابه کارشده در سطح دنیا ارائه و تحلیل می شود تا ضرورت به کارگیری هوش مصنوعی در پلیس به اثبات رسیده و اقدامات و برنامه ریزی لازم از جانب سیاستگزاران و دولتمردان این حوزه صورت پذیرد. اهم عناوین مورد بحث شامل عملکرد هوش مصنوعی در پیشگیری از جرم، ظرفیت های خطرپذیری بزهکاران و قابلیت اعمال نهادهای ارفاقی و معرفی برنامه های هوش مصنوعی پیاده شده در سطح دنیا در این حوزه می باشد. یکی از حوزه های کاربردی هوش مصنوعی در علوم جنائی از طریق پیش بینی جرم، پیشگیری و دستگیری مظنونین تا صلاحیت سنجی جهت اعمال و اجرای نهادهای ارفاقی و مراقبت های پس از خروج از زندان است که در این موضوع بررسی می شود. این موضوع را باید در نظر داشته که وظیفه دولت و قوای عمومی در قبال مسئله بزهکاری و ناامنی، صرفا مجازات کردن مجرمان نیست بلکه دولتها موظفند در چارچوب اصل حاکمیت قانون و اصول ناظر بر منصفانه بودن رسیدگی ها و صیانت از شهروندان، اقدامات به موقع جلوگیری از ورود صدمه و آسیب به افراد انجام دهند. و دیگر نمی توان با این تصور ساده که ترس از مجازات مانع از ورود صدمات به جامعه می شود، به مقابله با آنها پرداخت بلکه مقابله با آنها مستلزم اتخاذ روش هایی است که نه تنها ارتکاب جرایم قریب الوقوع توسط مجرمین احتمالی را غیرممکن سازد، بلکه در صورت وقوع، مانع ادامه ضرر بیشتر شود. البته لازم است به طور قانونمند و عادلانه از وقوع و استمرار جرایم جلوگیری کرده و از ایراد خسارات غیرقابل جبران به اعضای جامعه ممانعت آورد. پیش بینی جرم روشی است که جهت کاهش نرخ خطا در تصمیم گیری قضائی با استفاده از مدل ها و مطالعات تجربی و علوم مهندسی و امروزه با هوش مصنوعی در قلمرو مباحث جرم شناختی انجام می شود.مأموران تحقیق جنایی می توانند برای تشخیص مجموعه مشکلات به جای حوادث مجزا، از تحلیل داده ها بهره برند که سیستم های هوش مصنوعی در جمع آوری و تحلیل داده ها بسیار می توانند مفید باشند. زمانی که مشکلات مورد نظر شناسایی گردید، ادارات پلیس می توانند رویکردهای ثانویه را برای کاهش یا حذف وقوع جرایم خاص به کارگیرند. با توجه به قابلیت های هوش مصنوعی در داده کاوی، یادگیری ماشین، یادگیری عمیق و حتی رباتیک می تواند داده های تمام پرونده ها، جرایم و مجرمین را واکاوی و تحلیل نماید، داده های ورودی دوربین ها و سیستم های کنترلی و نظارتی را نیز تحلیل و طبقه بندی نماید، زمینه های خطر و احتمال جرم و رفتار مظنونین و مجرمین را شناسایی کند و از طریق ربات های پلیس در عملیات مسلحانه و خطرناک و تروریستی شرکت نموده تا عملیات را متوقف و مجرمین را دستگیر یا معدوم نماید».

دکتر ابوذری در ادامه به تأثیر هوش مصنوعی در داده‌کاوی تحقیقات جنایی و تجزیه‌وتحلیل هوشمند جرم پرداخت و افزود: « امروزه کشورهای پیشرو در پیشگیری از وقوع جرم و کشف سریع آنها و اعمال تدابیر لازم برای جلوگیری از تکرار جرم، با استفاده از هوش مصنوعی می توانند الگوهای رفتاری غیرعادی و خرابکارانه را شناسایی نموده و افرادی که احتمال ارتکاب اعمال مجرمانه توسط آنها وجود دارد، را طبقه بندی و ردیابی می کنند. این کشورها اقدامات داده کاوی در تحقیقات جنائی و تجزیه و تحلیل هوشمند جرم را بر اساس متغیرهای سه گانه جرم شامل متغیر فضائی-زمانی(مختصات زمان و مکان وقوع جرم)، مشخصات طبیعی رفتار ( مثل ویژگی های صحنه جرم، الگوی رفتاری مجرم) و مشخصات مجرم ( مانند جنس، سن، نژاد و غیره) انجام می دهند. نرم افزارها و سیستم های تحقیق جغرافیایی از فنون معمول ترسیم جرم استفاده متفاوتی می کنند و با استفاده از محل وقوع جرایم سابق و الگوریتم های پیچیده ریاضی، احتمال محل سکونت مجرم را در یک مکان خاص تخمین می زنند. برخی نرم افزارها سیستم هشدار و نمایشگر جغرافیایی دارند که جهت اعلام جرم، موقعیت مکانی بزهدیده و وضعیت خطر به کار می آیند. استفاده از این ابزارها به معنی پیشگیری مستقیم از وقوع جرم و محافظت از افراد در برابر خطر بزهدیدگی است. یکی از مدل های هوش مصنوعی بر روی اطلاعاتی که از دوربین های مدار بسته و سوابق دستگاه های هوشمند به دست می آید، کار می کنند. هرگاه افسران پلیس نیاز به ردیابی مجرمان داشته باشند، ترجیح می دهند از هوش مصنوعی مانند دستیار برای نظارت دقیق بر حرکات استفاده کنند. سیستم تشخیص چهره به درک آخرین مکان هر قربانی و همچنین تشخیص رفتار مجرم یا رباینده کمک می کند. با کمک سیستم های هوش مصنوعی در حال حاضر در بسیاری موارد پلیس از برنامه های پیش بینی جرم استفاده می کند که اطلاعات بزهکاری گذشته فرد را پردازش می کند و پیش بینی می کند که کجا و چگونه معمولا ممکن است جرم بعدی فرد اتفاق بیفتد. هوش مصنوعی علاوه بر اینکه در بایگانی اطلاعات و تحلیل آماری مورد استفاده قرار می گیرد، به طور فزاینده ای در تحقیقات جنائی جهت تحلیل و تصمیم گیری و پردازش اهمیت یافته اند که باعث دسترسی سریع و کارآمد به اطلاعات موجود از جمله سوابق اثر انگشت، آزمایش های دی ان ای، شناسایی چهره مظنونین، ذخیره اطلاعات و انتقال آنها و تحلیل داده ها در الگوریتم ها شده است. پلیس با برنامه های هوش مصنوعی می تواند مناطق جرم خیز و رفتارهای احتمالی افراد پرخطر و مجرمین سابقه دار را رصد و نظارت کند که این امر روند نظارت و پیشگیری را برای آنها آسان خواهد کرد. پروسه کشف مجرمین و عملیات تعقیب، نظارت و رصد پلیس و گشت زنی به طور سنتی اقدامی بسیاز زمانبر، خسته کننده و پرهزینه و گاه ناکارآمد بوده است و به خصوص با رشد و توسعه کلانشهرها و توسعه جرایم آپارتمانی و سایبری افراد که جمع آوری داده و تحلیل آنها به طور سنتی امکانپذیر نیست، با سیستم های هوش مصنوعی و نرم افزارهای طراحی شده در این حوزه، این مرحله به خوبی قابل انجام خواهد بود. همچنین می توان از فناوری های هوش مصنوعی به منظور تأمین ایمنی و امنیت عمومی استفاده کرد. از جمله دوربین­های نظارتی، پهپادها و برنامه­های پیش­بینانه مربوط به پلیس که قادر به شناسایی هنجارهای حاکی از جرایم احتمالی هستند. استفاده از هوش مصنوعی در سیستم های پلیسی و کنترل شهری در پیشگیری از جرم و حمایت از نظم عمومی نیز می تواند مؤثر باشد. گرچه این امر دغدغه نقض حریم خصوصی و مسائل حقوق بشری را در پی خواهد داشت. اما قابلیت ها و کارآمدی کاربرد هوش مصنوعی و ایجاد قواعد جهت لزوم حفظ داده­ها، می تواند این دغدغه را مرتفع نماید. الگوریتم های هوش مصنوعی پلیس می توانند احتمال وقوع جرم در یک مکان و زمان خاص جغرافیایی را با درجه بالایی از دقت بر اساس الگوهای قبلی رفتارها پیش بینی کند. البته این الگوریتم های پیش بینی در جرایم احتمالی و بازداشتن مجرمان احتمالی نباید منجر به مجازات آنها شود، زیرا مجازات بابت رفتار واقع نشده و احتمال خلاف عدالت و نفی اصول حقوق کیفری درآن می رود. اختیار دولتها صرفا بر اساس الگوریتم های پیش بینی در ممانعت از وقوع جرایم احتمالی و راهکارهای پلیسی در این حیطه خواهد بود».

ارائه‌کننده در ادامه مباحث کاربردی هوش مصنوعی افزود: « الگوریتم پیش بینی جرم به پلیس اجازه می دهد تا قبل از انجام جرم مداخله کند. سیستم های تشخیص چهره برای شناسایی مجرمان سابقه­دار و محکومین و مجرمان متواری که با تغییر چهره در جامعه حضور یافته یا در حال ورود یا خروج از کشور هستند، نیز بسیار کارآمد خواهد بود. پیشرفت های اخیر در الگوریتم های تشخیص چهره باعث شده است که بتوان از تصاویر مبهم، تصویر قابل تشخیص استخراج کرد. همچنین آژانس امنیت ملی آمریکا اعلام کرده است که با استفاده از فناوری تبدیل گفتار به متن، محتوای صوتی تماس های تلفنی را برای تحقیق بیشتر به متن تبدیل می کنند. پلیس به ویژه برای استفاده از هوش مصنوعی در نظارت پیش بینانه علاقه­مند است. اینکه چرا پلیس تنها پس از ارتکاب جرم بایستی وارد صحنه شود، یک پرسش و دغدغه در کارآمدی پلیس می باشد. ابزارهای هوش مصنوعی در اقدامات پلیس پیشگیرانه نیز بسیار موثر است که امر پیش­بینی مکان و زمانی که احتمال وقوع جرایم بیشتری در آن وجود دارد و اینکه چه کسی ممکن است مرتکب جرم شود، بدون اینکه تعصبات انسانی در آن دخیل باشد، را فراهم می کند. همچنین می تواند از فنون هوش مصنوعی برای توسعه شبیه سازی های هوشمند به منظور آموزش کارکنان مجری قانون استفاده کرد. زمانی که سازمان­های جرایم بین المللی و تروریست هایی از کشورهای مختلف به سادگی قابل شناسایی نیستند، می­توان از قابلیت های آن استفاده کرد. مثلا هوش مصنوعی می تواند در تجزیه و تحلیل شبکه های اجتماعی کمک کننده باشد و این تجزیه و تحلیل ها به منظور حفاظت از شبکه های در معرض خطر اغوا شدن انجام می شوند. هوش مصنوعی با دستیابی به مقدار زیادی از داده ها و اطلاعات از هر شهروند ( بر اساس اطلاعات دریافتی از سامانه های هویتی، شخصیتی، سوابق کیفری، ثبتی و غیره و دستیابی به تحلیل های دریافتی از عکس ها و تصاویر فرد در سطح شهر در زندگی روزمره و سبک زندگی وی و همچنین با دسترسی به تلفن های هوشمند) به پیش بینی ها و شناسایی های عینی و نزدیک به واقع رسیده است که اکنون قادر است با این پیش بینی­ها اهداف احتمالی مداخله پلیس را شناسایی کرده و از جرم جلوگیری کند.».

وی در ادامه به تأثیر هوش مصنوعی در تصمیمات قضائی پرداخت گفت: « هوش مصنوعی در خصوص تصمیم گیری مجازات و فاکتورهای تأثیرگذار آن نیز بسیار کارآمد خواهد بود که از دیگر حوزه های مربوط به پیشگیری از جرم در مجرمین بالفعل می باشد و در آمار تکرار جرم موثر خواهد بود. عوامل تخفیف دهنده مانند وضعیت خاص بزهکار، سن بزهکار و غیره یا عوامل تشدیدکننده مجازات مانند تکرار جرم و اعمال خشونت و غیره به خوبی در این سیستم ها قابل اعمال و اجرا هستند و حکم نهایی داده شده برای هر مورد عوامل مجازات، ورودی های سیستم هستند و تعیین مجازات خروجی آن است. این سیستم از آنجا که با فعال سازی و وزن دهی تصادفی کدگذاری شده است، بنابراین نمی تواند نتیجه هر مورد را به طور دقیق پیش بینی کند و هرچه بیشتر آموزش دیده می شود- با دریافت موارد پرونده ها و بازخورد از محیط و به اصطلاح آموزش دیده شدن به مرور زمان- جایی که تمام عوامل و شرایط محیطی را نیز دریافت و تحلیل کند، در نهایت یک شبکه و سیستم آموزش دیده خواهیم داشت که در آن می توان نتیجه یک پرونده بلاتکلیف را پیش بینی کرد. با توجه به اینکه ادعا اینست که شبکه های عصبی عمیق می توانند واقعا یاد بگیرند و مستقل تصمیم گیری کنند».

این استاد دانشگاه در ادامه به دستاوردهای عینی کاربرد هوش مصنوعی در نرم‌افزارهای مختلف پرداخت و اظهار داشت: « Expertcrop یک نرم­افزار برای تربیت افسران پلیس در تخصیص نیروهای پلیس در مناطق مختلف بر اساس درجه جرم­خیزی و احتمال خطر ارزیابی شده توسط سیستم با هدف پیشگیری از جرم است. همچنین نرم افزارهای جغرافیایی به افسران پلیس در مبارزه با آزارهای خیابانی علیه زنان نیز یاری می­رساند. مثل Protobadi در بنگلادش که با صدای آلارم ارسالی برای پلیس با فشردن یک دکمه از جانب خانم درخواست کننده کمک، پلیس را از این امر و محل جغرافیایی خود مطلع می­کند. برنامه دیگری تحت عنوان Age Progression Software یک برنامه کامپیوتری گرافیکی در شناسایی افراد غایب و مفقود است که پیش­بینی می­کند یک فرد مثلا بعد 5 سال چه چهره و ظاهری خواهد داشت تا شناسایی این افراد را ممکن کند. برنامه دیگری نیز طراحی شده که وقوع خودکشی زندانیان را بررسی و ارزیابی می­کند که با توجه به سنسورهای موجود در سقف یا دیوارها و طبیعت علایم حیاتی زندانی را مخابره می­کند.

Crime workbenchیک محصول نرم­افزاری هوشمند است که در اکتشاف جرایمی مانند کلاهبرداری کاربرد دارد. در ابزارهای مبارزه با کلاهبرداری به موارد زیر می­توان اشاره داشت:

Engine FAPE (fraud & abuse detection) یک سیستم استخراجِ داده است که در سایت ebay به کار رفته تا کلاهبرداری های واقع شده در این سایت را شناسایی کند.IFS (internal fraud screen) یک ابزار استخراج داده است که برای تطبیق و بررسی تقلب در معاملات از طریق خدمات سایبری و بانک داده­های سایبری، تقلب در کارت­های اعتباری را کنترل می­کند که از تکنیک­های مدلسازی قاعده محور و شبکه عصبی استفاده می­کند که به داده­های مختلفی دسترسی داشته و بر اساس کدهای اعتبارسنجی، اصالت و عملکرد ایمیل مشتری و غیره بررسی می­کند. یک پروژه هوش مصنوعی دیگر در آمریکا نیز به نام FinCEN (Financial crimes enforcement network) فعال است که هدفش شناسایی شبکه­های پولشویی با تحلیل لینک شبکه­های اینترنتی و گزارش­های دولتی و معاملات مالی انجام می شود.CATCH یک نرم افزار مبتنی بر بانک داده است که اطلاعات مربوط به قتل و آزارهای جنسی را با استفاده از آمار موجود در سایت­ها و ادارات پلیس و محاکم را جمع­آوری و طبقه­بندی بر مبنای ایجاد نقشه جغرافیایی و احتمالات مربوط تحلیل می‌کند که در سال 2006 طراحی و مورد استفاده پلیس قرار گرفت. AREST نیز یک سیستم خبره برای جمع آوری اطلاعات و پروفایل مظنونین سرقت­های مسلحانه است. در حوزه پزشکی قانونی نیز برنامه­هایی مانند E.D.D و از این قبیل وجود دارد. در آلمان، محققان مؤسسه «روش­های پیش­بینی مبتنی بر الگو» الگوریتمی برای پیش­بینی سرقت از طریق مفهوم «تکرار نزدیک» ابداع کرده­اند. این مفهوم می­گوید که در یک منطقه که در آن سرقت اتفاق می­افتد، انتظار می­رود در یک زمان کوتاه مجددا سرقت تکرار شود. این الگوریتم دزدی­ها را در شعاع 250 متری در بازه زمانی 24 ساعته طی 7 روز پیش­بینی می­کند. این مؤسسه ادعا می­کند که در 18 ماه از زمان اجرای آن در شهرهای مورد آزمایش، دستگیری سارقان (با توجه به گشت پلیس) دو برابر شده و تعداد سرقت­ها تا 30 درصد کاهش یافته است. برنامه PrePol یا HunchLab در امریکا برای ایجاد الگوی پیش بینی از داده­های سال­ها بزهکاری و ترسیم الگوی بزهکاری آنها استفاده کرده و الگوریتم­های پیش­بینی آن از داده جرم برای پیش­بینی زمان و مکان جرم بعدی حاصل شده است و مانند برنامه­های پیش­بینی هوا عمل می­کند. یکی دیگر از الگوریتم­های پیش­بینی پلیس، Compstat  است که در پاسخ به نگرانی از افزایش جرایم در نیویورک و ارائه آمار FBI مورد استفاده قرار گرفت.برنامه دیگر به نام RTM یک مثال دیگر در برنامه­های پیش­بینی پلیس است که توانسته بسیاری از معاملات قاچاق را ردگیری و جلوگیری کند. این سیستم با تحلیل داده­ها، مخاطرات را پیش­بینی کرده و پیشنهاد می­دهد تا جرم دوباره در آن مکان اتفاق نیفتد. توانایی یادگیری ماشین در کار شناسایی تقلب و جلوگیری از آن در خدمات مختلف روز به روز افزایش می­یابد و در حوزه­های مختلف قابل استفاده­تر می­شود. مثلا می­توان به سامانه­های پی پال اشاره کرد که از یادگیری ماشین برای مبارزه با پولشویی استفاده می­کند. این مؤسسه قادر است با بهره­گیری از یادگیری ماشین میلیون­ها تراکنش انجام شده را تحلیل و موارد مشکوک به پولشویی را بین خریداران و فروشندگان پیش‌بینی کند. اخیرا هم نرم افزار تصویربرداری فضایی خاورمیانه SIME در دبی هست که الگوهای موجود اطلاعات و جرایم در پایگاه داده پلیس را تحلیل کرده و سپس با استفاده از الگوریتم های پیچیده به تولید داده های مربوط به زمان و مکان ارتکاب جرم بعدی می پردازد».

وی در ادامه به چالش‌ها و نگرانی‌های موجود در زمینه استفاده از هوش مصنوعی اشاره کرد و گفت: «دو چالش اصلی، مربوط به نقض حریم خصوصی و نقض داده‌های شخصی افراد است که مبادا استفاده از این حجم کلان داده‌ها، منجر به نقض حریم شهروندان و اعمال‌نفوذ بر آنها شود. مشابه اتفاقی که از طریق سیستم اعتباردهی شهروندان در چین رخ داده است. طبق این سیستم از تک‌تک شهروندان روزانه، داده‌هایی در مورد حساب بانکی، فعالیت‌ها، رفتارهای منحرفانه، سوابق بزهکاری و … دریافت شده و به آنها نمره‌ای اعطا می‌شود که براساس آن می‌توانند از خدمات اجتماعی بهره‌مند و یا محروم شوند. قطعاً این یکی از نگرانی‌های جدی این فناوری است. گرچه روزبه‌روز هوش مصنوعی پیشرفته‌تر می‌شود و می‌تواند از یادگیری ماشین و یادگیری عمیق بیشتر بهره ببرد، حتی خودش تصمیم بگیرد چطور تحلیل کرده و رفتار کند، اما کماکان از داده‌های انسانی و جامعه تأثیر می‌گیرد و این نگرانی وجود دارد که تحت تأثیر سوءگیری‌ها و تعصبات انسان‌ها در مورد مسائل مختلف قرار نگیرد. مهم است که از کاربردهای هوش مصنوعی در عملیات نظامی و تروریستی استفاده نشده و منجر به ظهور ربات‌های تروریست و ربات‌های سربازی نشود که بدون ملاحظات اخلاقی و انسانی دست به هر عمل خطرناکی می‌زنند. همچنین این یک نگرانی کلی است که هوش مصنوعی منجر به بیکاری و حذف انسان‌ها و مشاغل انسانی نشود. البته برای هریک از اینها پاسخی وجود دارد اما من در این مجال فقط به بحث چالش اول خواهم پرداخت».

وی در ادامه افزود: «در استفاده از این فناوری باید اخلاقیات رعایت شود. استفاده از هوش مصنوعی باید همراه با رعایت حقوق اساسی مردم، امنیت، معیشت و صیانت از شهروندان باشد. سیستم‌های کنترلی و نظارتی نباید منجر به کنترل و سلطه گری بر شهروندان شوند. استفاده از این فناوری برای دولت‌های نیازمند چهارچوبی است که در جهت افزایش اعتماد عمومی، بهبود سطح زندگی مردم، افزایش، تسهیل و بهبود خدمات دولت‌ها بر مردم تعریف می‌شود. لذا استفاده از آن نباید منجر به نقض حریم خصوصی و یا حقوق اساسی و بنیادین انسان شود. لازم است در این حوزه، حداقلی از قوانین و مقرره گذاری در سطح داخلی و بین‌المللی صورت گیرد. همچنین پرداخت به این مسائل مهم است که اگر سیستم‌های عملکردی خودکار، آسیب یا صدماتی وارد شد، مسئولیت با کیست؟ برخی از کشورها، پیشنهاداتی مانند اعطای شخصیت الکترونیک، اعطای هویت و بیمه را مطرح کرده‌اند اما باید دید هریک از این پیشنهادات با چه چالش‌ها و تبعاتی همراه است. در حال حاضر برخی از کشورها اقدام به اعطای شخصیت به ربات‌ها کرده‌اند. اگر چنین موضوعی را بپذیریم، انقلاب و تحویل بزرگی در تفکر حقوق سنتی در شناسایی حقوق، مسئولیت و وظایف ایجاد خواهد شد».

دکتر ابوذری در ادامه به روند مقرره گذاری در باب هوش مصنوعی طی چند سال اخیر اشاره کرد و گفت: «در سال 2016، این سطح از نگرانی‌ها در کشورهای مختلف به ویژه در حوزه کشورهای اروپایی منجر به این شد که این کشورها بخواهند از قواعد قانون مدنی در رباتیک، خط‌مشی کلی و ساختاری قانونی، حقوقی و کاربردی در سطح هوش مصنوعی ایجاد کنند و پیشنهاداتی همچون آژانس رباتیک، شناسایی منشور اخلاقی برای مهندسان و اعطای گواهینامه به مهندسان و طراحان را مطرح کنند. لایحه گریشین روسیه تلاش کرد مسئولیت برای توسعه‌دهنده، اپراتور و کاربر را به اقتضای فعالیت‌هایشان، مورد شناسایی قرار دهد. در سال 2017، کمیته هوش مصنوعی، در مجلس اعیان بریتانیا، سعی کرد در یک فراخوان عمومی، طی پاسخ به یازده سؤال طراحی شده، در مورد نگرانی‌ها، چالش‌ها، مجوزهای عمومی به دولت جهت استفاده از این فناوری و نیز بیشترین بهره جامعه از این فناوری، اظهارنظر بخواهد تا براساس آن بتواند مقرره وضع کرده و پایگاهی در این رابطه ایجاد کند. در همین سال، شورای ملی علوم و فناوری ایالات‌متحده در کمیته تحقیق و توسعه فناوری اطلاعات هوش مصنوعی، طرح راهبردی ملی در حوزه هوش مصنوعی را ایجاد کرد که مبتنی بر کنوانسیون داده هم بود. بعد از آن، کمیسیون مشورتی حمایت از داده، GDPR رهنمود استفاده از هوش مصنوعی و حمایت از داده را وضع کرد. این رهنمود مبتنی بر اصول تناسب، مسئولیت، مشارکت، شفافیت و مدیریت ریسک تنظیم شده بود. در سال 2018، اتحادیه اروپا، کمیسیون تخصصی هوش مصنوعی را ایجاد کرد تا به وضع رهنمودهای اخلاقی و سیاست‌گذاری در چهارچوب این دستورالعمل مبتنی بر احترام به خودمختاری انسان‌ها، عدم آسیب به انسان‌ها، رعایت انصاف و اصل توضیح‌پذیری به انسان‌ها اقدام کند. نهایتاً جلوه و تبلور اصلی این مقرره گذاری به سال 2021 و وضع قانون هوش مصنوعی توسط اتحادیه اروپا بازمی‌گردد. این مقرره در دوازده عنوان و 85 ماده و با رویکردی ریسک بنیان تنظیم شد. این قانون، سیستم­های هوش مصنوعی را به سه دسته تقسیم می­کند: سیستم­های هوش مصنوعی با خطر غیرقابل قبول، سیستم­های هوش مصنوعی پرخطر و کم خطر. سیستم­های هوش مصنوعی با خطرغیرقابل قبول، مطلقا ممنوع هستند، مانند سیستم­هایی که رفتار و عقاید و تصمیمات انسان را می­توانند دستکاری کنند یا سیستم­هایی که برای سوءاستفاده از گروه­های آسیب­پذیر ممکن است مورد استفاده قرار گیرند و یا سیستم­هایی که شناسایی بیومتریک از راه دور انجام می­دهند ».

وی در ادامه افزود: «به کارگیری هوش مصنوعی در علوم مختلف که منجر به تصمیم‌گیری در مورد آزادی‌ها و حریم شهروندان می‌شود، باید با رویکرد پیشگیری، پیش‌بینی، ردیابی مجرمین خطرناک و متواری باشد. باید تعادلی میان منافع استفاده از این فناوری و حمایت از ارزش‌های بنیادین بشری ایجاد شود؛ یعنی باید مرکزیت و محور انسان باشد. دو اصل باید در استفاده از هوش مصنوعی موردتوجه قرار گیرد، نخست، این اصل نباید منجر به ایجاد سلطه و حاکمیت دولت‌ها بر مردم و ایجاد دولت‌های خودمحور شود و دوم، استفاده از هوش مصنوعی نباید باعث حاکمیت خود هوش مصنوعی بر انسان به ویژه در گونه‌های تکامل‌یافته‌تر آن در دهه‌های بعدی شود. ما نباید به بهانه تأمین امنیت و مبارزه با بی‌نظمی و … با داده‌های بیومترکی از راه دور، تحلیل شخصیت افراد و … شهروندانی با بدن‌های رام بسازیم که جرأت تخلف نداشته باشند.»

سپس دبیر علمی جلسه از ناقد اول، جناب آقای دکتر بهزاد لک، درخواست نمود که نقطه‌نظرات خود را ارائه دهد. دکتر بهزاد لک در راستای اشاره به تاریخچه بحث هوش مصنوعی بیان داشت: «شاید کم‌تر از 10 سال باشد که از بحث درباره انقلاب صنعتی چهارم می‌گذرد، اما امروزه در محافل صنعتی و تولیدی ناظر پیش‌بینی شدن انقلاب جدیدی تحت عنوان انقلاب صنعتی پنجم هستیم. در حقیقت، مشارکت و ادغام هوش مصنوعی و هوش انسانی را مطرح می‌کنند. اگر به تاریخچه هوش مصنوعی نگاه کنیم، شاید اصطلاح هوش مصنوعی به تاریخ 1955 برگردد؛ اولین باری که این مفهوم مطرح شد. تقریباً تا سال 2010 تمام اتفاقاتی که در این حوزه می‌افتاد،‌ معمولاً یا بحث علمی-تخیلی بود و یا در یک حوزه دانشگاهی مبهم بود، اما امروزه از سال 2010 به این سمت به یک عامل مؤثر در یک جامعه مدرن تبدیل شده است. به نظر می‌رسد که آینده هوش مصنوعی بسیار چالش‌برانگیز باشد. در حقیقت، مثل محاسبات کوانتومی به احتمال زیاد انقلاب بشری در این زمینه ایجاد خواهد کرد که یکی از مهم‌ترین مباحثی است که در این حوزه باید به آن پرداخته شود».

وی در ادامه به تشریح نحوه کارکرد هوش مصنوعی و مهم‌ترین مشکل آن پرداخت و گفت: «اصل هوش مصنوعی بحث کار با داده است. متأسفانه مشکلی که امروزه برای بحث داده وجود دارد، این است که داده‌کاوها معتقد هستند که 70 درصد کار داده‌کاوی و استفاده از الگوریتم‌ها، 70 درصد زمان یک داده‌کاو را می‌گیرد. معتقد هستیم که الگوریتم‌ها وجود دارد یا اگر هم نقصی وجود داشته باشد، محققان می‌توانند یک Extension به آن اضافه کنند، اما بحث فعالیت اطلاعات‌محور مبتنی بر جمع‌آوری داده و اقدام بر اساس اطلاعات به‌قدری مهم است که اگر نگاه کنیم، خیلی از سازمان‌هایی که امروزه درگیر هوشمندسازی هستند و شعار هوشمندسازی را می‌دهند، با این مؤلفه‌ها مشکل دارند. این موضوع آن‌قدر مهم است که دو مرکز خیلی مهم، یکی مرکز نوآوری سازمان اینترپل و یکی مؤسسه تحقیقاتی بین‌منطقه‌ای موسوم به جرم و عدالت، تحت‌نظر سازمان ملل متحد فعالیت می‌کند. یک مرکز تخصصی هوش مصنوعی با هدف ارتقاء سطح توانمندی‌های پلیس در زمینه فناوری هوشمند را تأسیس کردند. سال 2018 هم یک نشستی درباره فرصت‌ها و خطرات هوش مصنوعی برای اجرای قانون در سنگاپور برگزار شد. دوباره سال بعد عمیق‌تر به این موضوع نگاه کردند و همین نشست را ادامه دادند. وقتی که به این حرکت نگاه می‌کنیم، متوجه می‌شویم که هوش مصنوعی می‌تواند یک‌سری مفاهیم جدیدی را برای پلیس به همراه داشته باشد و خلأهای تخصصی برای پشتیبانی این مأموریت پر شود».

دکتر لک در ادامه به شاخه‌های هوش مصنوعی اشاره کرد و اظهار داشت: «یادگیری ماشین، یادگیری شبکه عصبی، شبکه عصبی مصنوعی، بینایی ماشین، سامانه‌‌های خبره، سیستم‌های خبره، پردازش زبان طبیعی، الگوریتم‌های ژنتیک و مفاهیم مرتبط با رباتیک، از مفاهیمی هستند که در بحث هوش مصنوعی می‌توانیم به آن‌ها بپردازیم و همه زیرمجموعه هوش مصنوعی قرار می‌گیرند. بحث حریم خصوصی یا بحث اخلاق در استفاده از هوش مصنوعی یک بحث خیلی مهمی است و ما باید قبول کنیم که برای این‌که بتوانیم حقوق اساسی شهروندان را در این حوزه رعایت کنیم، باید مؤلفه‌هایی همچون انصاف، پاسخ‌گویی و شفافیت را در نظر بگیریم. یعنی نباید این بحث، حق برخورداری از فرآیند قانونی، فرض بی‌گناهی و آزادی بیان را نقض کند. هم‌چنین، در بحث پاسخ‌گویی باید فرهنگ پاسخ‌گویی در سطح یک سازمان ایجاد شود. بحث شفافیت یا داشتن داشبورد مدیریتی باید به درستی و هدفمند مدیریت شود و ما نباید مانند یک جعبه سیاه به کاربردهای هوش مصنوعی بپردازیم. در خصوص اقدامات‌ صورت گرفته در حوزه اخلاق، مؤسسه مهندسان برق و الکترونیک برای انتشار یک رساله جهانی در مورد اخلاق سیستم‌های خودکار و هوشمند کار کرده‌اند».

وی افزود: «این سؤال در جامعه ما مطرح می‌شود که چرا این همه از کاربرد هوش مصنوعی گفته می‌شود و ما هنوز نتوانسته‌ایم به یک نقشه‌‌راه برای کشور خودمان دست پیدا کنیم؟ مگر چین، دبی، هند و کشورهای دیگر که دارند از این فناوری استفاده می‌کنند، چه کار کرده‌اند که توانسته‌اند در کاربردهای مختلف از آن استفاده کنند؟ ما چون در هوشمندسازی سازمان‌ها فعالیت می‌کنیم و بحث داده‌کاوی را دنبال می‌کنیم، یک‌سری از مشکلات را می‌بینیم و این مشکلات را مورد اشاره قرار می‌دهیم، اما متأسفانه هنوز چاره‌ای برای آن‌ها اندیشیده نشده است. به نظر من اولین موردی که وجود دارد، این است که بسیاری از تحقیقات و طرح‌های پژوهشی در زمینه عوامل تأثیرگذار بر وقوع جرایم در حوزه‌های متفاوت کار کرده‌اند، اما تاکنون من ارتباط منطقی و استدلال علمی بین یافته‌ها و خروجی این‌گونه تحقیقات با هوش مصنوعی ندیده‌ام. ما فکر می‌کنیم یک ابزاری مثل هوش مصنوعی که می‌خواهد بیاید، قرار است این ابزار تمام کار را برای ما حل کند. باید اعتقاد داشته باشیم که ما می‌توانیم به‌صورت غیرمستقیم هم برای پیشگیری از جرم از هوش مصنوعی استفاده کنیم. ما در نتایج تحقیقات علوم انسانی به این می‌رسیم که اگر اعتبار پلیس بالا برود، اگر آموزش افزایش پیدا کند و اگر فرهنگ ارتقاء پیدا کند، جرم کاهش پیدا می‌کند. آیا نمی‌توانیم به‌طور غیرمستقیم از هوش مصنوعی در حوزه کاهش هزینه و جرم استفاده کنیم؟ سؤال من این است که نقطه شروع کجا است؟ فرض کنید امروز به ما گفتند که شما می‌توانید این مجوز را داشته باشید که از هوش مصنوعی استفاده کنید. هوش مصنوعی کاربردهای بسیاری دارد، اما اولین قدم کجا است؟ من معماری داده و ساختار یکپارچه از توزیع و استخراج سنسورها را اولین قدم می‌دانم. اگر داده‌های ما یکپارچه نباشند و بحث استخراج و تبدیل و انتقال داده‌ها با یک معماری اطلاعات به درستی انجام نشود، هیچ‌کدام از این ابزارها به کار ما نخواهد آمد. ما برای این‌که بتوانیم معماری داده را داشته باشیم، باید بیش‌ترین زمان را صرف یکپارچه‌سازی و توزیع درست سرورها داشته باشیم که این اتفاق هنوز در کشور ما نیفتاده است».

دکتر لک در ادامه بیان داشت: «به اعتقاد من اگر هر سازمان یا دستگاه مجری قانون، این سه مؤلفه‌ای را که خدمتتان عرض می‌کنم، اجرا کند، درست توانسته است از این الگوریتم‌ها، ابزارها و فناوری‌ها استفاده کند و می‌تواند سازمان خود را هوشمند کند. اولین قدم این است که ما باید کاری کنیم که فاصله تصمیم‌گیری تا اقدام به صفر نزدیک شود. استفاده کردن از این شبکه عصبی بعد از وقوع جرم به هیچ دردی نخواهد خورد. شاید برای گزارش‌ها و تفسیر آینده به درد بخورد، اما ما به دنبال این هستیم که جرمی اتفاق نیفتد. واکنش بلادرنگ و عوامل تأثیرگذار محیطی عامل دومی است که می‌تواند در بحث هوشمندسازی و استفاده از این ابزارها خیلی مؤثر باشد. در نهایت، یکپارچگی و هماهنگی بین سامانه‌های اطلاعاتی و مرتبط با پایگاه داده‌های توزیع‌شده. مطلب بعدی استفاده از سامانه‌های هوشمند برای نمایش توزیع جمعیت، مجرمین، مردم، سازمان‌ها، پلیس و هر فاکتوری که در این حوزه تأثیرگذار باشد، است. برای این‌که شما بتوانید یک اشراف اطلاعاتی و یک تصمیم‌گیری برای پشتیبانی محدوده‌ها و مکان‌های دارای ریسک پرخطر داشته باشید، باید یک داشبورد مدیریتی مبتنی بر تحلیل‌های برخط داشته باشید. متأسفانه تحلیل‌هایی که امروزه ارائه می‌شود، تحلیل‌هایی است که روی داده‌هایی که قبلاً در پایگاه داده‌های مختلف تولید شده است. به همین دلیل، با این‌که این ابزارها و فناوری‌ها می‌توانند کمک کنند، اما خروجی آن‌ها برای تصمیم‌گیری و تصمیم‌سازی مناسب نخواهد بود».

وی در ادامه به ضرورت توجه به تفاوت‌های جرایم سنتی و جرایم نوظهور و نیز، جایگاه مفهوم «دقت» در الگوریتم‌ها اشاره کرد و گفت: «در مطالبی که ارائه شد، بیش‌تر بر جرایم سنتی تأکید شده بود، اما امروزه بحث انتقال از جرایم سنتی به سمت جرایم نوظهور و سایبری مطرح است؛ جرایمی که دائم دارد افزایش پیدا می‌کند و شکل و شیوه آن‌ها هم هر روز دارد تغییر می‌یابد. اگر بخواهیم که این جرایم را پیش‌بینی نموده و از آن‌ها پیشگیری کنیم، باید بیش‌تر روی بحث مدیریت ریسک سرمایه‌گذاری نماییم. در مدیریت ریسک دو فاکتور اساسی داریم، احتمال وقوع یک جرم و در نهایت، تأثیر این جرم. اگر بتوانیم این دو عامل را با این الگوریتم‌ها شناسایی کنیم، می‌توانیم تا حد زیادی از وقوع جرم جلوگیری کنیم. نکته دیگر این است که معمولاً در کارهای شبکه‌های عصبی و دیگر الگوریتم‌ها مفهومی به نام «دقت» داریم. این را باید قبول کنیم که تمامی ابزارهای و فناوری‌های مبتنی بر هوش مصنوعی حکم قطعی ندارند و دقت و قابلیت اطمینان آن‌ها 100 درصد نیست. لذا نمی‌توانیم از این ابزار برای تمام جرایم استفاده کنیم و بخواهیم یک حکم قطعی بدهیم. برای این‌که این اتفاق درست رقم بخورد، ما باید یک ساختار و یک طبقه‌بندی از جرایم داشته باشیم که وقتی می‌خواهیم تصمیم‌گیری کنیم یا از این ابزارها استفاده کنیم، از آن الگوریتمی استفاده کنیم که دقت آن از سایر الگوریتم‌ها بیش‌تر باشد».

دکتر لک بر ضرورت اصلاح و بازنگری در برنامه و نقشه‌راه تأکید کرد و بیان نمود: «ما برای این‌که بتوانیم نقشه‌راه و برنامه‌ای برای استفاده از فناوری‌های هوش مصنوعی جهت پیشگیری از جرم تنظیم کنیم، لازم است که هر سال این برنامه و نقشه‌راه را اصلاح کنیم. ما اعتقاد داریم که در بحث هوشمندسازی سازمان‌ها برای پیشگیری از جرایم یک نسخه‌ای که امسال نوشته می‌شود، لزوماً برای سال آینده کاربردی و مفید نخواهد بود. دائم‌ این‌ها باید اصلاح بشود؛ به جهت توسعه فناوری‌هایی که وجود دارد و افزونه‌هایی که به الگوریتم‌ها اضافه می‌شود و هم‌چنین، نوع داده‌هایی که به ترکیب داده‌های قبلی ما اضافه می‌شود. لذا بازنگری این مواردی که عرض می‌کنم، به نظر من می‌تواند خیلی مهم باشد. ما باید انواع جرایم سنتی، سایبری و ترکیبی را به‌روزرسانی و دسته‌بندی کنیم و برای دسته‌بندی این جرایم از الگوریتم‌هایی با دقت بالا استفاده کنیم. نقش پلیس، نهادها، سازمان‌ها و مردم باید مشخص شود. درست است که کاربرد هوش مصنوعی شاید بیش‌تر به بحث مأموریت‌های پلیس، پیش‌بینی و پیشگیری و ردیابی جرایم و … بازگردد، اما سازمان‌های دیگر هم می‌توانند نقش ایفا کنند برای این‌که این اطلاعات را در اختیار ما قرار بدهند. مثلاً بانک مرکزی می‌تواند در بحث برداشت پول از حساب دیگران بدون اطلاع یافتن صاحب حساب، اطلاعات خود را در اختیار پلیس قرار بدهد و ما بارها این موضوع را مطالبه کرده‌ایم، اما این اتفاق هنوز نیفتاده است. همواره باید بین امنیت و حریم خصوصی تعادل ایجاد شود؛ یعنی اگر می‌خواهیم از این ابزارها استفاده کنیم که امنیت را بالا ببریم و جرم را کاهش بدهیم، از آن طرف حریم خصوصی با مشکل مواجه نشود. روش‌های غیرمستقیم پیشگیری از جرم از طریق هوش مصنوعی همچون فرهنگ‌سازی، افزایش اعتبار پلیس و … می‌تواند خیلی به ما کمک کند».

وی در پایان توصیه‌هایی را مطرح نمود و گفت: «نیازهای پلیس برای هوش مصنوعی باید شناسایی و به‌صورت ساختارمند طبقه‌بندی شود و برای سهولت توسعه پروژه‌های آینده به اشتراک گذاشته شود؛ ابتکارات جدید یا در حال اجرای هوش مصنوعی باید با آگاهی نهادها مجری قانون در کشور شناسایی شود؛ متن‌های قانونی اخلاقی قابل قبول برای جمع‌آوری و تجزیه و تحلیل داده‌ها برای اجرای قانون باید تدوین شود؛ فرصت‌ها، تکنیک‌های رسیدگی به حریم خصوصی و پاسخ‌گویی مسائل مربوط به استفاده از هوش مصنوعی باید بررسی شود؛ مطالعه در مورد جرایم جدید و نوظهور که شامل استفاده مخرب از هوش مصنوعی و رباتیک است، باید صورت بگیرد؛ بحث بعدی، بحث آگاهی است. آگاهی بیشتر از مسائل هوش مصنوعی و رباتیک از طریق بهبود آموزش و تبادل اطلاعات باید در پلیس توسعه پیدا کند؛ چشم‌انداز هوش مصنوعی و فناوری رباتیک باید به‌طور مداوم کنترل شود؛ مورد بعدی، مورد جلسات و هماهنگی است. باید نشست‌های تخصصی و تالارهای گفت‌وگو از طریق جلسات سالانه و به‌صورت فعال در زمینه هوش مصنوعی برای پلیس و سازمان‌های مشابه شکل بگیرد؛ همکاری‌های بین‌المللی بین سازمان‌های مجری قانون و سایر ذی‌نفعان مرتبط باید صورت ‌بگیرد؛ رویدادهای بیش‌تری همچون دوره‌های آموزشی، کارگاه‌ها، جلسات مختلف برای تجزیه و تحلیل، برای مأموریت‌های پلیس در حوزه پیش‌بینی جرایم باید برگزار و سازمان‌دهی شود؛ مورد بعدی بحث دانش و به اشتراک‌گذاری اطلاعات است. روابط بین پلیس، دانشگاه و شرکای صنعتی جامعه باید تشویق و تقویت شود؛ زمینه همکاری متقابل و کار مشترک و اشتراک‌گذاری باید توسعه پیدا کند و در نهایت، برای بحث ابزارهای جدید باید بر پروژه‌های آزمایشی برای توسعه و آزمایش هوش مصنوعی و ابزارهای رباتیک برای سازمان‌های مجری قانون بیش‌تر تأکید شود؛ هم‌چنین، تجهیز دفاتر اینترپل در کشورهای عضو با ابزارهای هوش مصنوعی انجام شود».

سپس دبیر جلسه از ناقد دوم، جناب آقای دکتر فرجیها، دعوت نمود که به ارائه دیدگاه‌های خود بپردازد. دکتر فرجیها بیان داشت: «خوشبختانه خانم دکتر ابوذری در بیان شفاهی خود با پرداختن به چالش‌های کاربرد هوش مصنوعی در حوزه‌های مختلف عدالت کیفری از جمله پیشگیری مقداری نگرانی‌های من را کم کردند؛ زیرا همیشه وقتی بحث انتقال یک‌سری از ساختارها و نهادها و ابزارها به بسترهای حقوقی-سیاسی جامعه مطرح می‌شود، همیشه این نگرانی وجود دارد که اگر این انتقال صورت بگیرد، آیا ما هم از آن‌ها همان استفاده‌ای را که الان در آلمان و آمریکا می‌شود، می‌کنیم؟ اگر قرار است که در قالب کرسی نظریه‌پردازی چنین بحث‌هایی مطرح شود، پژوهشگر محترم باید توصیفی از وضعیت حقوقی-سیاسی جامعه ما ارائه دهد و این چالش‌ها را در بستر نظام حقوقی-سیاسی ما مورد بحث قرار دهد. به نظرم این چالش‌ها بسیار گسترده است و من می‌خواهم از این فرصت استفاده کنم؛ یک مقدار بحث مربوط به چالش‌ها را بیش‌تر توضیح دهم و آن را قدری برجسته کنم».

وی در ادامه به عنوان نشست اشاره نمود و گفت: «به نظرم عنوان نشست با آنچه مطرح شد، مقداری تفاوت دارد. خانم دکتر، همان‌طور که اشاره کردند، بیش‌تر هوش مصنوعی را در حوزه عدالت کیفری مورد اشاره قرار دادند، از تصمیمات قضایی گرفته تا تحقیقات جنایی و تشخیص هویت متهمان و دستگیری. این‌ها در تعریفی که ما در جرم‌شناسی از پیشگیری داریم، نمی‌گنجد. قاعدتاً در مورد عنوان نشست دقیق‌تر این بود که گفته شود کاربرد هوش مصنوعی در تحقیقات جنایی یا حتی اگر قرار است پیشگیری گفته شود، به نظرم پیشگیری انتظامی از جرم یا پیشگیری وضعی مناسب‌تر بود؛ چون تعریفی که ما از پیشگیری داریم، یک بخش عمده‌اش ارتباطی با بحث‌های خانم دکتر و بحث هوش مصنوعی پیدا نمی‌کند».

دکتر فرجیها سپس به چالش‌های مرتبط با موضوع هوش مصنوعی اشاره نمود و گفت: «یکی از مهم‌ترین چالش‌ها در حوزه هوش مصنوعی در مسائل کنترل جرم یا پیش‌بینی جرم، اعتبار داده‌هایی است که ما قرار است از طریق هوش مصنوعی آن‌ها را تحلیل کنیم. در حال حاضر، این زیرساخت آماری و اطلاعاتی که ما در سازمان پلیس و دستگاه قضایی داریم، به هیچ عنوان اعتبار علمی لازم را برای این‌که بتوانیم از طریق این داده‌ها جرم را پیش‌بینی کنیم یا از وقوع جرم پیشگیری کنیم و آن را ارزیابی کنیم، ندارد. هنوز در دستگاه قضاییِ ما از تعداد پرونده‌ها صحبت می‌شود و نه از تعداد جرایم. ما هنوز در کشور تعداد جرایم را نداریم. ما چون از روش‌های جرم‌شناسی همچون روش Self-Report که سال‌ها است در همه جای دنیا برای تعیین میزان بزهکاری چه از طریق خوداظهاری و چه از طریق نظرسنجی از بزه‌دیدگان استفاده می‌شود، استفاده نمی‌کنیم، به هیچ عنوان با این زیرساخت آماری و اطلاعاتی که داریم، نه می‌توان جرم را پیش‌بینی کرد، نه می‌شود از جرم پیشگیری کرد و نه می‌توان اگر مداخله‌ای صورت گرفته باشد، آن پیشگیری را مورد ارزیابی قرار داد. مجموع داده‌هایی که در ساختار پلیس و دستگاه قضایی در قالب عناوین مجرمانه و تعداد جرایم یا پرونده‌ها شکل گرفته است، محصول عملکرد اداری و سازمانی این نهادها است، نه واقعیت‌های مجرمانه. این دو با هم خیلی فاصله و تفاوت دارند. مثلاً در دوران آیت‌الله شاهرودی در سال 1380، 182 هزار زندانی داشتیم که در سال 1390 در پایان دوره مدیریت ایشان، جمعیت کیفری ما به 147 هزار نفر رسید؛ یعنی با افزایش جرم‌انگاری‌ها و افزایش آمار جرایم، آمار زندانیان ما 40 هزار نفر کاهش پیدا کرد. در سال 1392، در دو سال اول مدیریت آیت‌الله لاریجانی، جمعیت کیفری ما از 147 هزار به 263 هزار رسید و بعد آقای لاریجانی درست یک ماه مانده به این‌که از دستگاه قضایی بروند، با درخواست عفو 105 هزار نفر، دوباره این را به مثلاً 180 هزار رساندند. من دارم فکر می‌کنم که اگر قرار باشد ما یک زیرساخت آماری و اطلاعاتیِ علمی نداشته باشیم که نداریم و فکر نمی‌کنم که عزمی برای این کار وجود داشته باشد، الان این داده‌ها را به هوش مصنوعی بدهیم و بگوییم که روند را پیش‌بینی کند که سال آینده وضعیت آمار زندانیان ما چگونه خواهد بود، چه خواهد شد؟ این زیرساخت آماری و اطلاعاتی بخش عمده‌ای از آن اهداف و بحث‌هایی را که ما داریم، به‌شدت زیر سؤال می‌برد. نکته مهم این است که چون قرار است این زیرساخت‌های آماری و اطلاعاتی شاخص ارزیابی عملکرد نهادها باشد، طبیعتاً کاربری که برای ورود اطلاعات پشت سیستم نشسته است، طوری این اطلاعات را وارد می‌کند که آن واحد انتظامی یا قضایی زیر سؤال نرود یا ترفندهایی که پلیس اتخاذ می‌کند تا جرم‌های خشونت‌باری را که عملکردش را زیر سؤال می‌برد، در ستون‌های غیرخشونت‌آمیز ببرد؛ مثلاً آدم‌ربایی را در ستون افراد مفقودی و قتل عمد را در ستون مرگ‌های مشکوک می‌برد».

وی افزود: «نکته دیگر این‌که بسیاری از سرفصل‌هایی که برای تشخیص الگوهای بزهکاری، شخصیت مرتکب و … در صحبت‌های شما بود، اصلاً در نظام آمار اطلاعات جنایی ما وجود ندارد. ممکن است که مثلاً در یک پرونده قاضی از یک متهم سرقت یا قتل بپرسد که انگیزه‌ات چه بود، اما حرفی که فرد متهم می‌زند و درکی که از واژه انگیزه دارد، خیلی متفاوت از آن چیزی است که ما برای تحلیل الگوهای بزهکاری و تحلیل شخصیت مرتکب و پیش‌بینی بزهکاری آینده او به آن نیاز داریم. چون این سرفصل‌ها در فرم‌های ما نیست و ما مکانیزمی هم برای تشخیص این‌ها نداریم، تقریباً بخش عمده‌ای از آن پیشنهاداتی که شما دادید، با این فقدان داده مواجه خواهد شد. نکته دیگری که من هم در نقد هوش مصنوعی می‌خواهم به آن اشاره کنم و هم اتفاقی که الان دارد حتی در کشورهای توسعه‌یافته می‌افتد، استحضار دارید که از دیدگاه جرم‌شناسی انتقادی بخش عمده‌ای از این سازوکارهای کنترل جرم که در آمریکا و انگلیس وجود دارد، به‌شدت محل نقد است. رویکرد‌های سنجش مدیریت خطر که به آن اشاره شد، با چالش‌های بسیار زیادی مواجه است. در واقع، به این معنا نیست که کشورهایی که در حوزه‌های جرم‌شناسی و حوزه‌های نظریه‌پردازی پیشگام هستند، لزوماً تدابیری هم که برای کنترل جرم اتخاذ می‌کنند، لزوماً تدابیر جرم‌شناختی است. یک نقدی که باز به زیرساخت‌های آماری و اطلاعاتی می‌شود وارد کرد، این است که این نظام آمار و اطلاعات جنایی براساس جرم‌هایی است که گزارش شده و متهم در آن‌ها شناسایی شده، دستگیر شده و محاکمه شده است. به تعبیر جرم‌شناسان در آمار جنایی، این ‌یک‌دهم از کوه یخ است و ما به نه‌دهم آن دسترسی نداریم و جنس آن بخش بزهکاری‌هایی که ما به آن دسترسی نداریم، هم به لحاظ نوع جرم ارتکابی و هم به لحاظ شخصیت مرتکبان کاملاً متفاوت از آن بخشی است که در نوک کوه یخ هستند. یعنی بررسی‌های ما نشان می‌دهد که به دلیل سخت‌گیری‌های پلیسی و رفتارهای تبعیض‌آمیز پلیس نسبت به گروه‌های جوانان و گروه‌های حاشیه‌نشین، اصطکاک و تماس بخشی از جامعه با پلیس خیلی بیش‌تر از سایر بخش‌ها است؛ بدون این‌که این افراد لزوماً آدم‌های خطرناکی باشند و بخش عمده‌ای از پرونده‌ها را همین افراد تشکیل می‌دهند. اگر بگوییم اطلاعات و داده‌هایی که ما از طریق هوش مصنوعی داده‌کاوی می‌کنیم، قرار است سیستم را تربیت کند و به آن آموزش دهد، من احساس می‌کنم اگر ورود اطلاعات ما براساس این آمارهای رسمی باشد، اساساً ما به سیستم داریم آموزش اشتباه می‌دهیم؛ زیرا این سیستم بر اساس همین داده می‌گوید که کسی که مجرد است، کسی که درآمد ندارد، کسی که محل سکونتش این‌جا است، درجه خطرناکی‌اش بالا می‌رود. در حالی که ما اگر می‌توانستیم به هر دلیلی هم به جرایم یقه‌سفیدها دسترسی داشته باشیم و هم رقم سیاه آن را به دست می‌آوردیم، آن وقت می‌دیدیم خیلی از افرادی که با استناد به سیستم هوش مصنوعی آدم‌های متشخص، معنون و بی‌خطری هستند، بسیار خطرناک‌ترند. تبعیض‌آمیز بودن رفتار نظام عدالت کیفری و نظارت و کنترل شدید بر گروه‌های مختلف جامعه، وقتی وارد هوش مصنوعی بشود، به شکل تصنعی و غیرواقعی گروه‌هایی از افراد جامعه را خطرناک نشان می‌دهد و گروه‌های دیگر را بسیار کم‌خطر نشان می‌دهد».

دکتر فرجیها در ادامه گفت: «چالش بعدی این است که به نظرم در بحث پیشگیری یک مقدار موضوع ساده‌سازی شد. صرف وجود داده و تحلیل داده منجر به پیشگیری نمی‌شود. ما برای پیشگیری از جرم باید یک مبنای تئوریک داشته باشیم. اتفاقاً من می‌خواهم همین‌جا توضیح بدهم که در ادبیات پلیسی اصلاً تعریفی که از پیشگیری وجود دارد با آن تعریفی که ما از پیشگیری در جرم‌شناسی داریم، بسیار متفاوت است. بخش عمده‌ای از اقدامات پلیس برای کنترل جرم فاقد مبنای نظری است و پلیس در راستای خواست عمومی و انتظارات مردم معمولاً اقداماتی را انجام می‌دهد؛ چون از طریق رسانه‌ها از پلیس انتظار می‌رود که این کار را کنند. یک چیزی شبیه به طرح مقابله با اراذل و اوباش خود ما که پلیس دارد انجام می‌دهد و تصور می‌کند که این پیشگیری است. اقدامی که پلیس دارد انجام می‌دهد، به نظر من اصلاً جنبه پیشگیری ندارد و از نظر من به عنوان معلم جرم‌شناسی، چون ساعت‌ها با افرادی که مشمول این برنامه‌ها قرار گرفتند مصاحبه کرده‌ام، مطلقاً منجر به کاهش جرم نشده است. صرفاً در آن مقطع اجرای این طرح‌ها این افراد مدتی به مسافرت می‌روند، ولی دوباره برمی‌گردند که ما به این، جابه‌جایی جرم می‌گوییم و نه پیشگیری از جرم. این تدابیر و اقدامات پلیسی نه‌تنها منجر به پیشگیری از جرم نمی‌شود، بلکه اتفاقاً منجر به ایجاد طبقه‌ای از مجرمان می‌شود. پس اگر بخواهیم بگوییم که پیشگیری به لحاظ علمی به مبنای تئوریک نیاز دارد، هر داده‌ای که از طریق هوش مصنوعی تولید و تحلیل می‌شود، این لزوماً به معنای پیشگیری نیست. این یک چیز خیلی خام است و مهم این است که شما چگونه از این داده‌ها استفاده می‌کنید. الان در حال حاضر استفاده‌ای که پلیس دارد می‌کند، مخصوصاً در قسمت‌های کنترل مجرمان، در خیلی از موارد فاقد مبنای تئوریک است و ما به هیچ‌ عنوان در جرم‌شناسی به این‌ها پیشگیری نمی‌گوییم. در کشور ما به هر دلیلی ماهیت نظام سیاست جنایی‌مان این است که مداخله‌های کیفری گسترده‌ای در حوزه اخلاق و فرهنگ داریم. بنابراین، بدون توجه به ساختار سیاسی و با توصیه به داشتن قانون مشکل حل نمی‌شود. ما قانون داریم و فکر نمی‌کنم ما مشکل قانونی داشته باشیم. با قانون نمی‌شود جلوی احتمال استفاده‌های امنیتی از زیرساخت‌های آماری و اطلاعاتی را گرفت».

سپس دبیر علمی جلسه از ناقد سوم، جناب آقای دکتر بیات، درخواست نمود که به بیان دیدگاه‌های خود بپردازد. دکتر بیات به ماهیت جرم از منظر جامعه‌شناسی اشاره نمود و گفت: «جرم ذاتاً و فی‌نفسه از منظر جامعه‌شناسی یک معلول است. در واقع، جرم ناشی از یک آسیب است و آسیب نیز ناشی از یک کژکارکردی است. بنابراین، ما هر استراتژی و راهبردی را بتوانیم در مورد جرم که یک معلول و متغیر است، اجرا کنیم، حتی اگر بتوانیم به ‌صورت 100 درصدی بر فرض محال موفق باشیم، در واقع یک کار اورژانسی انجام داده‌ایم و نه یک کار بیمارستانی که بیماری‌محور بوده و در بحث پیشگیری، سلامت‌محور ‌باشد. بنابراین، حتی اگر این اتفاق بیفتد، یک برنامه پیشگیری در آن مبانی و ملاحظات و الزامات خودش یک عطف توجهی هم به آن زیرساخت‌ها انجام شود. سال گذشته در حدود 2 میلیون و 200 هزار پرونده جرم در حوزه امنیت عمومی بسته و کلاسه شد که به پلیس و ضابطین دیگر برمی‌گردد. تقریباً 52 یا 53 درصد، یعنی یک میلیون و 100 هزار پرونده، مربوط به سرقت بود. سرقت با این ابزارها اصلاً کنترل‌شدنی نیست؛ زیرا سرقت ناشی از موضوعات جرم‌شناختی و متغیرهای دیگری است. شما می‌توانید تحت عنوان جابه‌جاشدگی از آن نام ببرید. جرم یک تب‌سنج اجتماعی است. ما وقتی به پدیده جرم نگاه می‌کنیم، در آن متغیرهای سیاسی، اجتماعی، اقتصادی، فرهنگی، نظام قانون‌گذاری، نظام سیاست‌گذاری و خیلی از کژکارکردی‌های این‌چنینی را می‌بینیم. اگر بر فرض این‌که این نوع اتفاقاتی که افتاده است، برخی سایر شاخص‌ها، ملاک‌ها و اماره‌ها را هم ما بتوانیم جمع کنیم و این ابزار یعنی ابزار هوش مصنوعی بسیار می‌تواند به ما کمک کند و به نوعی جای آن کژکارکردی‌ها یا حوزه‌های آن را برای ما بدهد».

وی در ادامه به بررسی شرایط و استلزامات به‌کارگیریِ هوش مصنوعی در حوزه پیشگیری از جرم پرداخت و گفت: «براساس اصل 156 قانون اساسی پیشگیری از جرم به قوه قضاییه مربوط می‌شود. قوه قضاییه با فرد و مجرم طرف حساب است و نه با ساختارها و نه زیرساخت‌ها و اصلاً چیزی هم به نام پیشگیری با محوریت فرد، خواه با محوریت فرد و خواه با محوریت قربانی، امکان‌پذیر نیست. بنابراین، پیشگیری باید یک مرحله عقب‌تر در حوزه آن ساختارها و زیرساخت‌ها انجام شود. در نتیجه، ما به یک‌سری الزامات احتیاج داریم که بتوانیم این کاربرد را داشته باشیم. نخست، امکانات و زیرساخت‌های سخت‌افزاری مدنظر است که به دلیل تحریم و … این امکانات سخت‌افزاری به دست ما می‌آید که یک معضل جدی است. یک بحث دیگر، ملاحظات نرم‌افزاری است که به چند مورد اشاره شد و این یک بحث جدی است برای این‌که برنامه هوش مصنوعی عملیاتی شود. بحث بسیار جدی‌تر، الزامات مغزافزاری است؛ یعنی تربیت و آموزش افرادی که بتوانند از این نرم‌افزارها و سخت‌افزارها با فرض وجود استفاده کنند. نکته اساسی‌تر، بحث سازمان‌افزار است. در این‌جا منظور از سازمان، اداره و تشکیلات نیست، اگرچه آن هم در دل این مفهوم وجود دارد. یکی بحث ساختار است که بتواند این را به کار بگیرد. یعنی هوشمندسازی زمانی به درد می‌خورد که شما با به‌کارگیری این همه هزینه بتوانید هزینه‌های سابق را کاهش بدهید. یعنی اگر قرار بود قبلاً کنترل، نظارت یا پیشگیری را با خودرو و ابزارهای غیرهوشمند انجام دهید، الان وقتی این‌ ابزارها را به کار می‌گیریم، آن هزینه‌ها کم شده باشد. قوانین، مقررات، سیاست‌ها و سیاست‌گذاری‌ها هنوز جای بحث بسیار جدی دارد. به جای بسیاری از ازدحام‌ها و رفت‌وبرگشت‌هایی که بین قوه قضاییه و نیروی انتظامی صورت می‌گیرد، به راحتی می‌شود از این ابزار استفاده کرد و خود همین که فرایند رسیدگی‌ها و خدمات‌رسانی تسهیل می‌شود، باعث می‌شود که بخش قابل‌توجهی از بسترهای بروز جرایم یا آسیب‌ها به نوعی گرفته شود».

دکتر بیات در ادامه به نکاتی در خصوص چالش‌های استفاده از هوش مصنوعی اشاره کرد و گفت: «در هوشمندسازی با خطر یا دغدغه شکل‌گیری جامعه انضباطی مواجه هستیم. اگر شما با تکنولوژی‌های کنترلی و انضباطی نگذاشتید فردی که نیازمند سرقت است، سرقت را انجام دهد، ممکن است به جای سرقت که در حالت عادی یک جرم سبک‌تری است، یک جرم دیگری انجام دهد؛ حتی به رغم وجود این فکر در ذهن مجرم که من وقتی دارم این جرم را انجام می‌دهم، احتمال دستگیری‌ام بالا می‌آید. یعنی بازدارندگی را کاهش می‌دهد. نکته بعدی این است که ما باید توجه داشته باشیم که هوش مصنوعی به همان میزان که می‌تواند در دستگاه‌های نظارتی و کنترلی دقت ایجاد کند، می‌تواند در مجرمین هم یک ظرفیت ایجاد کند. نکته بعدی، بحث سرعت و دقت است. به همان میزان که سرعت و دقت در نهادهای کنترلی دارد بالا می‌رود، در مجرمین هم دارد بالا می‌رود. اگر ما سنجیده عمل نکنیم، تمام هزینه‌های آن را انجام می‌دهیم و بعد وارد یک فضای مینیاتوری و نمایشگاهی می‌شویم. اگر به لحاظ علمی و فنی در مورد کاربرد هوش مصنوعی واقع‌نمایی صورت نگیرد، 10 سال دیگر می‌بینیم که در این وانفسای بودجه و هزینه، هزینه کلانی را اختصاص داده‌ایم و ممکن است که حالا چند شرکت دانش‌بنیان هم به یک نانی رسیده باشند، ولی دریغ از این‌که قطره‌ای آب به سیستم رسیده باشد».

در ادامه دبیر جلسه از رئیس پژوهشگاه فرهنگ و هنر درخواست کرد تا به ارائه دیدگاه‌های خود دراین‌باره بپردازد. دکتر مقیسه با تأکید بر اهمیت نگاه آسیب شناسانه و رفتارپژوهشی فرهنگی در این زمینه اظهار داشت: «این موضوع دارای سه شاه‌کلید است. صیانت از شهروندان نخستین موضوعی است که باید توسط حاکمیت و بخش‌های مختلف نظارتی، امنیتی، عملکردی و خدماتی موردتوجه قرار گیرد. حذف زمینه‌های جرم، با نگرش به مجرمین احتمالی و اعتراف به شکست تئوری ترس از مجازات که در تمام جوامع اروپایی رخ داده، از دیگر موضوعاتی است که باید موردبررسی قرار گیرد. فکر می‌کنم باید از چند گذر، گریز کنیم. ما علاقه‌ای به یادگیری نداریم و در توهم دانایی غرق هستیم. این امر باعث شده یادگیری ما ضعیف و یا مختل شود. ما شفافیت گریز هستیم و داده‌های موثقی نداریم. این نقد همکارانه را به دکتر فرجیها دارم. ایشان دچار یک نقد رسوب پارادایمی یا پارادایم رسوبی در نظراتشان شده‌اند و ان‌شاءالله در آینده در مورد آن بحث خواهیم کرد. از دیگر مسائلی که باید از آن گریز داشت، فناوری هراسی، نظارت گریزی، بخل در اطلاع‌رسانی، سنجش گریزی، تضاد منافع، قانون‌گریزی و تغییر هراسی است. ما هنوز در کشور به واژگان مشترکی در رابطه با هوش مصنوعی نرسیده‌ایم. قدرت تخریبی که جامعه ایرانی برای نابودسازی همه چیزهای خوب دارد بسیار بالاست. ما در موضوعاتی که بسیاری از جوامع مختلف عمل کرده‌اند، چنان کار را به پلشتی می‌کشانیم که یکسری اتفاقات ناگوار می‌افتد. ما گمان می‌کنیم نهادسازی منجر به حل مشکل خواهد شد، درحالی‌که تأسیس نهادها در کشور ما بر اساس فرایند نهان‌سازی مشکلات و پاک کردن صورت‌مسئله انجام می‌شود».

وی در ادامه افزود: «ما در پیشگیری از وقایع و رخدادها ضعیف هستیم و فرهنگ پیشگیرانه‌ای وجود ندارد. در واقع در راستای تکمیل تغییر هراسی، دچار نوعی آینده هراسی هستیم. البته که تغییر در هر سطحی می‌تواند انسان را دچار هراس کند؛ و این امر با خود آینده هراسی را نیز به دنبال دارد. چراکه اولاً در توهم دانایی هستیم و نمی‌خواهیم یاد بگیریم. ما باید به دنبال یک فرهنگ و واژه‌سازی حرکت کنیم. این موضوع در پژوهشکده فناوری نوین و هوش مصنوعی پژوهشگاه مطرح شده است و به دنبال ایجاد آن هستیم. هوش مصنوعی باید بومی و ایرانیزه شود. فراموش نکنیم که بر اساس یک تئوری، مجرم همواره از قانون جلوتر است. طبیعتاً مجرمین نیز مانند حاکمیت و قانون‌گذاران به دنبال فناوری‌های هوش مصنوعی خواهند رفت؛ منتهی هرکدام سرعتشان بیشتر باشد، موفق‌تر خواهد بود».

در ادامه دکتر عبدالرحمن حمید، رئیس دانشگاه غالب افغانستان به دعوت دبیر جلسه، به ایراد سخنان خود پرداخت. وی چنین اظهار داشت: «من در حوزه هوش مصنوعی تخصصی ندارم، اما بنا بر مطالعاتم، با ارائه دکتر ابوذری و مباحث مطرح‌شده توسط ناقدین موافقم. علاوه‌بر توجه داشتن به بحث هوش مصنوعی جهت پیشگیری از جرایم و تعقیب مجرمین لازم است ما بستری سازی مناسبی هم داشته باشیم. فقدان بسترهای مناسب می‌تواند به جای انتفاع از این فناوری نوین، منجر به ضرر شود. در این شرایط مجرمین بیش از قانون‌گذاران سود خواهند برد و با توانایی زیرکانه‌ای که دارند یک گام پیش خواهند افتاد. همچنین برای اینکه بتوانیم این پارادایم جدید را در حوزه کشورهایمان بومی‌سازی کنیم، لازم است از کشورهای اروپایی و کشورهایی که در این زمینه از ما سر و گردنی بالاتر هستند، الگوبرداری کنیم و با ایجاد بستری مناسب، از این پارادایم برای تعقیب، پیگیری و کاهش جرایم استفاده کنیم».

در ادامه دبیر جلسه از ناقدین خواست تا اگر پاسخی به مباحث مطرح شده دارند به بیان مباحث خود بپردازند. از جمع ناقدین، دکتر لک به بیان سه نکته در باب مسائل مطرح شده پرداخت و گفت: «ما نباید به فناوری هوش مصنوعی به عنوان یک بلک باکس نگاه کنیم. هوش مصنوعی ابزاری نیست که هرچه به آن بدهیم در نتیجه، شاهد خروجی پیشگیری از جرم باشیم. این نگاه اشتباه است و نشان می‌دهد ما درک درستی از مفهوم هوش مصنوعی نداریم. استفاده از داده‌ها و الگوریتم‌هایی که روی داده‌کاوی‌ها سوار است، باید تحلیل و تفسیر درستی از الگوهای پنهان جرم را به ما نمایش دهد. این ما را به تصمیم سازی و تصمیم‌گیری می‌رساند. بعد از این، هوش انسانی است که باید روی این کار کند و برای تصمیم‌گیری و تصمیم سازی برای پیشگیری از جرم، نسخه بپیچد. دکتر فرجیها مثالی که زدند و من باید بگویم ما داده‌کاوی را بر اساس یک رکورد انجام نمی‌دهیم. میان تعداد رکوردها در دیتاست، باید ویژگی‌هایی باشد که بتوان از آن استفاده کرد؛ یعنی ما زمانی می‌توانیم از این اطلاعات استفاده کنیم که هم تعدادشان و هم تعداد attribute ها زیاد باشد که بتوانیم آن را ثابت کنیم. پس اینکه روی یک رکورد بخواهیم مثالی بزنیم و بگوییم می‌توان بر روی فردی با این ویژگی‌ها که چنین پارامترهایی را داشته باشد، پیش‌بینی انجام داد اشتباه است.»

وی در ادامه افزود: «ما برای استفاده از هوش مصنوعی چاره‌ای جز تفکیک جرایم نداریم. هر آنچه در جلسه امروز مثال زده شد، مصداقی و بر مبنای جرایم سنتی بود. دکتر فرجیها در مورد پلیس صحبت کردند که داده‌هایشان ناقص است و اینکه ما روی پرونده صحبت می‌کنیم. باید بگویم ما در پلیس فتا، دارای بیشترین و بهترین اطلاعات هستیم و در حال حاضر بسیاری از الگوریتم‌ها استفاده می‌شود. این‌گونه نیست که دیتایی نباشد. به نظرم در استفاده از این ابزارها مهم است که چه زمانی و بر روی چه مسئله‌ای از این داده‌ها استفاده شود. ابزارهایی که دکتر ابوذری مطرح کردند هریک برای مسئله‌ای خاص طراحی شده بود. ما برای مسائل خاص می‌توانیم الگوریتم‌های متفاوتی داشته باشیم. هوش مصنوعی جعبه سیاهی نیست که بتوان از آن برای همه جرایم استفاده کرد. گام اول از نظر من، تفکیک جرایم است و پس از آن باید به تقویت سنسورها بپردازیم و داده‌ها را جمع‌آوری کنیم».

دبیر جلسه در ادامه از دکتر ابوذری خواست تا به جمع‌بندی نهایی خود بپردازد. دکتر ابوذری ضمن اشاره به ضیق وقت و پذیرش نقد دکتر لک در باب تفکیک جرایم اظهار داشت: «من مباحث متعددی را در این رابطه آماده کرده بودم و بنا داشتم کاربردهای مختلف هوش مصنوعی را در جرایم سایبری بر اساس نرم‌افزارها توضیح دهم، اما به دلیل محدودیت‌های زمانی، مجبور شدم از بخشی از مطالبم چشم‌پوشی کنم. دکتر لک درست می‌فرمایند و دغدغه دکتر فرجیها در رابطه با داده، حداقل در رابطه با داده‌های سایبری در کشور ما تا حدی زیادی مرتفع می‌شود. در واقع ابزار هوش مصنوعی، داده‌های خام، و نه داده‌های دستکاری‌شده توسط سیستم قضائی و عناصر انسانی، را استخراج، تحلیل و ارزیابی می‌کند. این بسیار مهم است که از همان بدو ورود شخص به سیستم قضائی، داده‌کاوی کلی صورت گیرد، نه با اخذ اثرانگشت و یا تیک‌هایی که در فرم‌های پرونده شخصیت وجود دارد. داده‌هایی که ممکن است از هر انسانی که دستگیرشده جمع‌آوری شود از محل‌های مختلفی از جمله دوربین‌های کنترلی، نظارتی، سامانه عدل ایران، فضاهای مجازی، شبکه‌های اجتماعی و … گردآوری می‌شوند و مورد تحلیل و ارزیابی واقع می‌شوند. البته تعصب و سوءگیری‌های انسانی وجود داشته و دارد. به نظرم دیدن مستند سوءگیری کدگذاری شده می‌تواند کمک بزرگی باشد. آنچه در جوامع چین و انگلستان، در لندن، رخ داد، نشان می‌دهد که شناسایی از راه دور و تحلیل داده‌های بیومتریک چگونه می‌تواند منجر به بروز جنبش‌ها و آسیب‌هایی شود که از همان تبعیض ممکن است نشأت بگیرد. در کشور ما ممکن است این سوابق ما را به سمت مردانِ جوانِ مجردِ بیکارِ حاشیه‌نشین سوق دهد و در جامعه آمریکایی به سمت سیاه‌پوستانی که برایشان اعتبار اجتماعی کمتری در نظر گرفته شده است. لذا ممکن است شخص سیاه‌پوستی فقط به خاطر اینکه سیاه‌پوست، زن، حاشیه‌نشین است، علی‌رغم اینکه کارگر بدون جرم و بی‌خطری برای جامعه بوده، موظف شود در بازه‌های زمانی به سازمان پلیسی منطقه خود مراجعه کرده و از عملکرد خود گزارش دهد. این‌ها به خاطر همان سوءگیری‌های جامعه در شناسایی افراد پرخطر است».

وی در ادامه به همه‌گیری این نگرانی‌ها در کشورهای مختلف اشاره داشت و افزود: «باید بپذیریم که هوش مصنوعی شمشیر دو لبه است و مانند یک موج زندگی ما را درگیر خود خواهد کرد. چه موافق و چه مخالف باشیم، این امر گریزناپذیر است. لذا مناسب است ضمن شناسایی قابلیت‌ها و دستاوردهای آن، چالش و خطراتش را نیز ببینیم و برای آن چاره‌اندیشی کنیم. جوامع دیگر درگیر آن شده‌اند و از آن استفاده می‌کنند، سرمایه‌گذاری‌های کلانی هم در حوزه‌های پژوهشی و آکادمی برای آن انجام داده‌اند. جنبش‌هایی هم برای استفاده از هوش مصنوعی و داده‌های بیومتریک در این مدت ایجاد شد که منجر به ایجاد ممنوعیت برای بسیاری از سایت‌ها از جمله آمازون و فیس‌بوک شد. این سایت‌ها با استفاده از این داده‌ها، اقدام به تحلیل شخصیت می‌کردند. همچنین در بسیاری از ایالات آمریکا، استفاده از این سیستم‌ها توسط پلیس ممنوع شد».

وی در ادامه به اهمیت نقش مردم در مقابله با این فناوری و بروز چالش‌ها پرداخت و گفت: «این امر باعث می‌شود ما با خطرات و چالش‌های استفاده از چنین فناوری مواجه شویم. انگلستان به عنوان یکی از کشورهای پیشرو در استفاده از سیستم‌های بیومتریک و اعتبار اجتماعی بود که این امر مورد اعتراض مردم واقع شد. آنچه هم که امروز توسط پلیس دوبی مورد استفاده قرار گرفته هنوز منجر به ارائه ادعایی در باب کاهش جرایم نشده است. سیستم مورد استفاده توسط پلیس دوبی مدعی مبارزه با بزهکاری و اقدام علیه مجرمین، تحلیل داده‌های بزهکاری و پیش‌بینی این است که جرم چه زمانی و در چه مکانی رخ می‌دهد. لذا فعلاً دستاورد و خروجی خاصی نداشته است. در آلمان نیز این داده توسط موسسه روش‌های پیش‌بینی مبتنی بر الگو اجرا شد. این الگوریتم بر اساس پیش‌بینی سرقت از طریق مفهوم تکرار نزدیک اجرا می‌شد و معتقد بود دزدی‌ها را در شعاع دویست و پنجاه متری، در بازه زمانی 24 ساعته، طی هفت روز قابل پیش‌بینی هستند. این سیستم مدعی شد در هیجده ماهی که در شهرهای آزمایشی از این فناوری استفاده شده، دستگیری سارقین دو برابر افزایش داشته و سی درصد میزان سرقت کاهش یافته است؛ بنابراین مهم است که ما قابلیت‌های این فناوری را هم بشناسیم. به نظر من اولین گام در این رابطه، کماکان توجه حقوقی و قانونمندسازی آن است. جامعه ما و هر جامعه دیگری باید تکلیف خود را با این فناوری مشخص کند و تعیین کند استفاده از هوش مصنوعی را بر مبنای خدمات‌دهی می‌خواهد یا کنترل گری؟ زمانی که اتحادیه اروپا در سال 2016 اقدام به مقرره گذاری در این زمینه کرد، تلاش کرد بازخورد و انتظارات مردم را موردبررسی قرار دهد. از همین رو در یک فراخوان عمومی به بررسی انتظارات مردم پرداخت و پس از آن در قالب قانونی آزمایشی و برای سه سال، این قانون را مورد ارزیابی و صحه سنجی قرار داد. جامعه ما هم باید در ابتدا تکلیفش را با این امر مشخص کند که آیا می‌خواهد به هر قیمتی امنیت را افزایش دهد یا بنا را بر افزایش خدمات بر مردم قرار داده است.»

دکتر ابوذری در ادامه به پاسخ سؤالات کاربران آنلاین پرداخت.

در انتهای جلسه، از داوران محترم و شرکت‌کنندگان در جلسه قدردانی به عمل آمد و دبیر جلسه، رأس ساعت 19 و 30 دقیقه ختم جلسه را اعلام نمود. مشروح مطالب ارائه‌شده در این جلسه را می‌توانید در وب‌سایت پژوهشکده حقوقی شهر دانش به آدرس  www.sdil.ac.ir مشاهده نمایید.

لینک اخبار منتشره در خبرگزاری‌ ها:

خبرگزاری تسنیم

تیزر معرفی اجلاسیه:

گزارش کوتاهی از اجلاسیه:

گزارش کامل اجلاسیه:

 

 

3 دیدگاه. ارسال دیدگاه جدید

  • ممنون بسیار مفید و آموزنده بود
    مرداد 25, 1402 00:12

    ممنون بسیار مفید و آموزنده بود

    پاسخ
  • آیا میدونستید که یک وبسایت جامع در زمینه هوش مصنوعی وجود داره که شما می تونید پروژه های یادگیری ماشین خودتون رو بدون هیچ دردسری و فقط با چند کلیک ساده انجام بدید؟
    وبسایت بیگ پرو1 رابط کاربری بسیار ساده ای داره، کافیه وارد داشبورد خود در وبسایت بیگ پرو1 بشید و فقط با چند کلیک پروژه خود را ثبت کرده و منتظر نتیجه ی پروژه ی خود باشید.

    پاسخ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.

بیشتر بخوانید:

keyboard_arrow_up