গবেষণা বলছে, আদালতে বর্তমান সংস্করণের কৃত্রিম বুদ্ধিমত্তার ব্যবহার অনিরাপদ!

আদালতের বিচারকার্যে কৃত্রিম বুদ্ধিমত্তার ব্যবহার পুরো মাত্রার ডিজিটালাইজেশনের নামান্তর। মেশিন লার্নিং, বিগডেটা ও সম্ভাব্যতা নিরূপণকারী প্রযুক্তির দ্রুত বিকাশ আদালতে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স সিস্টেমের ব্যবহারকে বিশেষভাবে প্রভাবিত করেছে।
ছবি: সংগৃহীত

আদালতের বিচারকার্যে কৃত্রিম বুদ্ধিমত্তার ব্যবহার পুরো মাত্রার ডিজিটালাইজেশনের নামান্তর। মেশিন লার্নিং, বিগডেটা ও সম্ভাব্যতা নিরূপণকারী প্রযুক্তির দ্রুত বিকাশ আদালতে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স সিস্টেমের ব্যবহারকে বিশেষভাবে প্রভাবিত করেছে।

প্রধানত যুক্তরাষ্ট্র ও মালয়েশিয়াসহ পৃথিবীর বিভিন্ন দেশের ফৌজদারি আদালতে প্রবেশন, জামিন, সাজার মেয়াদ নির্ধারণ ও অপরাধ প্রবণতা নিরূপণে সহায়ক প্রযুক্তি হিসেবে আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা ব্যবহার করা হয়ে থাকে।

প্রযুক্তির বিস্ময়কর আবিষ্কার কৃত্রিম বুদ্ধিমত্তার অ্যালগরিদম আদালতে ব্যবহার করে কতিপয় বিচারিক সিদ্ধান্ত গ্রহণ করার এমন যান্ত্রিক ব্যবস্থাকে অপরাধীর ঝুঁকি অ্যালগরিদম মূল্যায়ন বা প্রমাণভিত্তিক পদ্ধতিও বলা হয়ে থাকে।

অফুরন্ত সম্ভাবনার অধিকারী কৃত্রিম বুদ্ধিমত্তা নির্ভর এ প্রযুক্তি আদালতে ব্যবহারের পেছনে একটি বড় যুক্তি হলো, এটা মানুষের বিচার, যুক্তি এবং সিদ্ধান্তের সহজাত পক্ষপাত এবং গোপন বৈষম্য দূর করে ফৌজদারি আদালতের বিচার প্রক্রিয়ার গ্রহণযোগ্যতা ও বৈজ্ঞানিক সক্ষমতা বৃদ্ধি করবে। কেননা, কম্পিউটার মানুষ নয় বলে কম্পিউটার বা মেশিনের সেই সমস্যা নেই, যা মানুষের আছে।

তবে, প্রযুক্তি আশীর্বাদ নাকি অভিশাপ—এই বিতর্ক পুরানো হলেও আদালতের মতো গুরুত্বপূর্ণ পরিমণ্ডলে কৃত্রিম বুদ্ধিমত্তার স্বয়ংক্রিয় যন্ত্র ব্যবহারের প্রভাব নিয়ে বিশ্বব্যাপী নতুন বিতর্ক সৃষ্টি করেছে।

অনেক ইতিবাচক দিক থাকা সত্ত্বেও আদালতে ব্যবহার্য কৃত্রিম বুদ্ধিমত্তারও কিছু নেতিবাচক দিক রয়েছে। দেশের নিম্ন আদালতের এক বিচারকও তার গবেষণায় এমনটিই দাবি করেছেন।

রাজশাহীর সহকারী জজ মো. আব্দুল মালেক ফৌজদারি আদালতে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের প্রভাব নিয়ে আইন ও বিচার, প্রযুক্তিনীতি ও নৈতিকতার সংমিশ্রণে এক আন্তঃবিষয়ক গবেষণা কর্ম সম্পন্ন করেছেন, যা ইতোমধ্যে সুনাম ধন্য স্প্রিং নেচারের 'এআই অ্যান্ড ইথিকস' জার্নালে সম্প্রতি প্রকাশিত হয়েছে।

অপরাধীকে প্যারলে বা প্রবেশনে মুক্তি দেওয়া যাবে কি না, আসামি জামিনে মুক্তি পেলে সে সমাজে ফিরে আবার অপরাধ করার সম্ভাবনা আছে কি না, অথবা জামিনে মুক্ত আসামি নিয়মিত আদালতে শুনানীকালে হাজির হবেন কি না এবং প্রমাণিত অপরাধের দণ্ডের মেয়াদ কত হবে, এমন সকল প্রশ্নে কৃত্রিম বুদ্ধিমত্তা দ্বারা পরিচালিত 'রিস্ক আসেসমেন্ট অ্যালগরিদম' আদালতকে স্বয়ংক্রিয় সংকেত প্রদান করে থাকে।

এমন অ্যালগরিদমের স্বয়ংক্রিয় সংকেত কিভাবে মানুষ্য বিচারককে নানাভাবে প্রযুক্তিগত পক্ষপাত ও বৈষম্যমূলক সিদ্ধান্ত গ্রহণ করতে প্রভাবিত করে, এ গবেষণায় এমন সকল বিষয় নিবিড়ভাবে পরীক্ষা ও বিশ্লেষণ করা হয়েছে।

এ গবেষণা প্রবন্ধে তুলে ধরা হয়েছে, আধুনিক প্রযুক্তির আশির্বাদপুষ্ট কৃত্রিম বুদ্ধিমত্তা দ্বারা পরিচালিত এমন অভিনব যন্ত্রগুলোতে অগণিত 'ডেটা' ইনপুট হিসেবে ব্যবহার করা হয়। এগুলো অতীত সমাজে বিদ্যমান পক্ষপাত ও বৈষম্যমূলক ডেটা, যা অভিযুক্ত ব্যক্তির অপরাধমূলক ইতিহাস, বয়স, লিঙ্গ, বৈবাহিক ও পারিবারিক সম্পর্ক, জীবনযাত্রার মান ও শিক্ষা ইত্যাদি সম্পর্কে তথ্য প্রদান করে থাকে।

এমন কলুষিত ডেটা ব্যবহারের ফলাফল সম্পর্কে বিচারক আব্দুল মালেক দাবি করেন, যেহেতু এমন ডেটা বা তথ্য কৃত্রিম বুদ্ধিমত্তার অ্যালগরিদমে ব্যবহার করা হয়, সেহেতু এ সিস্টেমটি অনিবার্যভাবে ডেটা প্রতিফলিত পক্ষপাত ও বৈষম্যমূলক আচরণ করবে। যেমনটি করে থাকে আফ্রিকান ও এশিয়ানদের বেলায়।

গবেষণা বলছে, কৃত্রিম বুদ্ধিমত্তা কিছু কিছু ক্ষেত্রে নারীদের বেলায়ও এমন আচরণ করে থাকে।

মজার ব্যাপার হচ্ছে, বিজ্ঞানীরা ইতোমধ্যে এ ধরণের কিছু সিস্টেমে ১৮০টিরও বেশি বিভিন্ন প্রকারের পক্ষপাত চিহ্নিত করেছেন।

ফৌজদারি বিচার ব্যবস্থার প্রাসাঙ্গিকতায় প্রযুক্তিগত পক্ষপাত, নমুনা পক্ষপাত, প্রতিনিধিত্ব পক্ষপাত, অটোমেশন পক্ষপাত, নিশ্চিতকরণ পক্ষপাত, ডেটাসেট পক্ষপাত, অ্যাসোসিয়েশন পক্ষপাত এবং মিথস্ক্রিয়ার পক্ষপাতের মতো নানাবিধ পক্ষপাত ও তার প্রভাব নিয়ে অন্বেষণ এবং পরীক্ষা করা হয়েছে এ গবেষণাপত্রে।

এ ছাড়াও, বিষয় বস্তু আলোচনায় আমেরিকার বিখ্যাত লুমিস কেস (২০১৬) ও আদালতের পর্যবেক্ষণ সম্পর্কে বিশেষভাবে আলোকপাত করা হয়েছে। এই গবেষক মনে করেন, ফৌজদারি বিচার ব্যবস্থায় এই ধরনের স্বয়ংক্রিয় সিস্টেমের ওপর বিচারকদের নির্ভরতা বৃদ্ধি পেলে যান্ত্রিক পক্ষপাতিত্ব, শ্রেণী বৈষম্য এবং গণ-কারাবাসের মতো অবাঞ্ছিত ফলাফল বয়ে আনতে পারে।

ফলশ্রুতিতে, কৃত্রিম বুদ্ধিমত্তার ঝুঁকি মূল্যায়ন যন্ত্র বিপুল পরিমাণ ডেটা নিমিষে বিশ্লেষণ করে মানুষের চেয়ে অধিক নিরপেক্ষ, নির্ভরযোগ্য, স্বচ্ছ ও পক্ষপাতহীন সিদ্ধান্ত গ্রহণ করতে পারে মর্মে বিভিন্ন মহলে যে ধারণা প্রচলিত আছে, এই বিচারক তার প্রতি উত্তর প্রদান করেছেন তার গবেষণায়।

পাশাপাশি, আদালতের মত সংবেদনশীল প্রতিষ্ঠানে কৃত্রিম বুদ্ধিমত্তার মতো উন্নত প্রযুক্তি ব্যবহারের দরুন সৃষ্ট সমস্যার সমাধানের সম্ভাব্য উপায় যুক্তিসহ উপস্থাপন করেছেন এই বিচারক গবেষক।

এ গবেষণা মতে, অন্ধভাবে এই প্রযুক্তি ব্যবহার না করে বরং সম্পূর্ণ স্বচ্ছতা, ব্যাখ্যা যোগ্যতা, পদ্ধতিগত ন্যায়পরায়ণতা, প্রতিষ্ঠিত বিচারিক নীতি নৈতিকতা এবং আইনি মূল্যবোধের আলোকে নতুন ধরণের কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আবিষ্কার করার দিকে মনোযোগ দেওয়া সমীচীন।

বাংলাদেশি কোনো নিম্ন আদালতের বিচারক হিসেবে এমন জটিল ও আন্তঃবিষয়ক গবেষণা সম্পন্ন করা এবং তা বিশ্বমানের একটি জার্নালে প্রকাশ করা সত্যিই যেমন চ্যালেঞ্জিং, তেমনি অনেক আনন্দেরও বটে।

বলার অপেক্ষা রাখে না, বিচারাঙ্গনে কৃত্রিম বুদ্ধিমত্তার ব্যবহার ও তার প্রভাব বিষয়ক এই গবেষণা শুধু বাংলাদেশ নয়, হাল বিশ্বে চলমান এআই প্রযুক্তি নিয়ে নানামুখি বিতর্কের এক অনবদ্য অংশ।

সুতরাং, বাংলাদেশসহ ফৌজদারি আদালতে কৃত্রিম বুদ্ধিমত্তা ব্যবহারে আগ্রহী সব দেশের জন্য এ গবেষণাটি গুরুত্বপূর্ণ ভূমিকা রাখবে বলে আশা করা যায়। অধিকন্তু, এ ধরনের প্রযুক্তির উন্নয়ন, ব্যবহার ও গবেষণাসহ বিচার প্রশাসনের নীতি নির্ধারণের মতো গুরুত্বপূর্ণ জায়গাগুলোতে এই গবেষণালব্ধ জ্ঞান কাজে আসবে বলে আমি মনে করি।

মো. ওয়াহিদুজ্জামান: এলএলএম (আইটি ল' অ্যান্ড পলিসি) ও লিগ্যালটেক গবেষক, ইউকে

(দ্য ডেইলি স্টারের সম্পাদকীয় নীতিমালার সঙ্গে লেখকের মতামতের মিল নাও থাকতে পারে। প্রকাশিত লেখাটির আইনগত, মতামত বা বিশ্লেষণের দায়ভার সম্পূর্ণরূপে লেখকের, দ্য ডেইলি স্টার কর্তৃপক্ষের নয়। লেখকের নিজস্ব মতামতের কোনো প্রকার দায়ভার দ্য ডেইলি স্টার নেবে না।)

Comments

The Daily Star  | English

No insurance assets will be usable for owners’ personal loans

Insurers shall not assist company directors, shareholders, their families or other related individuals in obtaining loans from financial institutions by using company assets as collateral, according to a draft amendment to Insurance Act 2010.

1h ago