মানুষের ‘বিলুপ্তির ঝুঁকি’ তৈরি করেছে এআই, প্রযুক্তিবিদদের সতর্কবার্তা

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এ বিষয়ে এক খোলা চিঠিতে স্বাক্ষর করেছেন।
ছবি: সংগৃহীত

একদল নের্তৃস্থানীয় প্রযুক্তিবিদ গত ৩০ মে জানিয়েছেন, তারা যে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি তৈরি করছেন তা একদিন মানব অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াতে পারে এবং এই প্রযুক্তিকে মহামারি এবং পারমাণবিক যুদ্ধের মতো বড় ঝুঁকি হিসেবে বিবেচনা করা উচিত।

সেন্টার ফর এআই সেফটি নামের একটি অলাভজনক সংস্থার এক বাক্যের বিবৃতিতে বলা হয়েছে, 'মহামারি ও পারমাণবিক যুদ্ধের মতো এআইয়ের কারণে বিলুপ্তির ঝুঁকি কমানোকেও সমান গুরুত্ব দেওয়া উচিত।'

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এই খোলা চিঠিতে স্বাক্ষর করেছেন।

স্বাক্ষরদাতাদের মধ্যে রয়েছেন ৩টি নের্তৃস্থানীয় এআই কোম্পানির প্রধান নির্বাহীরা- ওপেনএআইয়ের প্রধান নির্বাহী স্যামুয়েল অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রোপিকের প্রধান নির্বাহী ডারিও আমোদেই।

নিউরাল নেটওয়ার্ক নিয়ে কাজের জন্য টুরিং পুরস্কার বিজয়ী জিওফ্রে হিনটন এবং যশুয়া বেনিজও, যাদেরকে আধুনিক এআই প্রযুক্তির 'গডফাদার' হিসেবে বিবেচনা করা হয়, তারাও এই বিবৃতিতে স্বাক্ষর করেছেন। তবে টুরিং পুরস্কার বিজয়ী তৃতীয় গবেষক ইয়ান লিক্যান, যিনি আবার মেটার এআই গবেষণা কাজে নের্তৃত্ব দিচ্ছেন, ৩১ মে পর্যন্ত বিবৃতিতে স্বাক্ষর করেননি।

বিবৃতিটি এমন সময়ে প্রকাশ করা হলো, যখন কৃত্রিম বুদ্ধিমত্তার ঝুঁকি নিয়ে উদ্বেগ ক্রমশ বাড়ছে। এই খাতে সাম্প্রতিক অগ্রগতি হচ্ছে তথাকথিত 'লার্জ ল্যাংগুয়েজ মডেল', যার সাহায্যে চ্যাটজিপিটি বা বার্ডের মতো চ্যাটবটগুলো চলতে পারে। অনেকেই আশঙ্কা করছেন এই লার্জ ল্যাংগুয়েজ মডেল ভবিষ্যতে ভুয়া তথ্য ও প্রপাগান্ডা ছড়ানোর কাজে ব্যবহৃত হবে এবং মানুষের লাখ লাখ চাকরি কেড়ে নেবে।

এমনকি কেউ কেউ বিশ্বাস করেন, কৃত্রিম বুদ্ধিমত্তার অগ্রগতির হার যদি এখনই নিয়ন্ত্রণে না আনা হয়, তাহলে এটি এতটাই শক্তিশালী হয়ে উঠতে পারে যে কয়েক বছরের মধ্যে সমাজে অস্থিরতা তৈরি করতে পারে। যদিও এআই কীভাবে এই সামাজিক অস্থিরতা তৈরি করবে, গবেষকেরা তা এখনো নিশ্চিতভাবে বলতে পারেননি।

কৃত্রিম বুদ্ধিমত্তা নিয়ে এই ভয় ও আশঙ্কা এই খাতের অসংখ্য নেতৃবৃন্দের। কিন্তু তারপরও তারা প্রতিদ্বন্দ্বী কোম্পানিগুলোর তুলনায় দ্রুততম সময়ে আরও উন্নত ও শক্তিশালী এআই প্রযুক্তি তৈরিতে নিজেদের সর্বোচ্চ চেষ্টা করছে। ফলে ঝুঁকি আরও বাড়ছে। বিশষেজ্ঞরা বলছেন, এআই সম্পর্কে আরও কঠোর নিয়ম-কানুন আরোপ করা উচিত।

স্যাম (স্যামুয়েল) অল্টম্যান এবং ডেমিস হাসাবিস এআই সম্পর্কিত বিধিবিধান কেমন হওয়া উচিত, তা নিয়ে আলোচনা করতে সম্প্রতি মার্কিন প্রেসিডেন্ট জো বাইডেন এবং ভাইস প্রেসিডেন্ট কামালা হ্যারিসের সঙ্গে দেখা করেছেন। তাদের স্বাক্ষাতের পর মার্কিন সিনেটের শুনানিতে হাজির হয়ে স্যাম অল্টম্যান কৃত্রিম বুদ্ধিমত্তার ঝুঁকিগুলো কী কী, তা বর্ণনা করেছেন এবং এআইয়ের সম্পর্কিত বিধিবিধান তৈরির জন্য সরকারি হস্তক্ষেপের ওপর জোর দিয়েছেন।

সিনেট শুনানিতে স্যাম অল্টম্যান বলেন, 'আমি মনে করি এই প্রযুক্তি যখন খারাপ কিছু করে, তখন তা আরও বেশি খারাপ হওয়ার সম্ভাবনা বেশি। এমন পরিস্থিতি এড়াতে আমরা সরকারের সঙ্গে কাজ করতে চাই।'

ওপেনএআইয়ের প্রধান নির্বাহী বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেওয়ার জন্য একটি নতুন সংস্থা গড়ে তোলা প্রয়োজন। এ ছাড়া গণতন্ত্রের ওপর এর সম্ভাব্য প্রভাব সম্পর্কেও নিজের উদ্বেগ জানিয়েছেন অল্টম্যান।

সেন্টার ফর এআই সেফটির নির্বাহী পরিচালক ড্যান হ্যান্ড্রিকস বলেন, 'এই বিবৃতিটির মাধ্যমে যারা এআইয়ের ঝুঁকি নিয়ে এতদিন গোপনভাবে কথা বলতেন, তারাও প্রকাশ্যে এলেন এবং নিজেরা যে প্রযুক্তি তৈরি করছেন, তার ঝুঁকি নিয়ে খোলামেলা কথা বললেন।'

'এমনকি এআই সম্প্রদায়ের মধ্যেও একটি ভুল ধারণা রয়েছে যে, হয়তো অল্প সংখ্যক মানুষই এর ঝুঁকি সম্পর্কে কথা বলছেন। কিন্তু বাস্তবতা হচ্ছে অনেকেই গোপনে গোপনে এই প্রযুক্তির ঝুঁকি নিয়ে কথা বলছেন।'

কেউ কেউ অবশ্য যুক্তি দেখান যে এআই প্রযুক্তি এখনো অস্তিত্বের হুমকি তৈরি করার জন্য পরিপক্ক হয়ে উঠেনি। বরং তারা বর্তমানে যে এআই সিস্টেমগুলো সবাই ব্যবহার করছে, সেগুলোর দীর্ঘমেয়াদী বিপদের চেয়ে পক্ষপাতদুষ্ট এবং ভুল উত্তরের মতো স্বল্পমেয়াদী সমস্যাগুলো নিয়ে বেশি উদ্বিগ্ন।

তবে অন্যদের যুক্তি হচ্ছে, এআই এত দ্রুত উন্নতি করছে যে এটি ইতোমধ্যে কিছু ক্ষেত্রে মানুষের বুদ্ধি ও দক্ষতাকে ছাড়িয়ে গেছে এবং শিগগিরই অন্যান্য ক্ষেত্রেও মানুষকে ছাড়িয়ে যাবে। তারা বলছেন, এই প্রযুক্তির উচ্চতর সক্ষমতা ও বোঝার ক্ষমতা ইতোমধ্যে প্রমাণ হয়েছে। ফলে অদূর ভবিষ্যতে অনেকগুলো কাজের ক্ষেত্রে এটি মানুষকে হটিয়ে দেবে।

সম্প্রতি লেখা এক ব্লগ পোস্টে স্যাম অল্টম্যান এবং ওপেনএআইয়ের আরও ২ জন নির্বাহী এআই প্রযুক্তিকে কীভাবে দায়িত্বশীলতার সঙ্গে নিয়ন্ত্রণ করা যায়, তার পরামর্শ দিয়েছেন। তারা এআই প্রযুক্তি তৈরি করা প্রতিষ্ঠানগুলোর মধ্যে আরও সমন্বয়, লার্জ ল্যাংগুয়েজ মডেল সম্পর্কে আরও গভীর গবেষণার প্রস্তাব দিয়েছেন। একই সঙ্গে আন্তর্জাতিক পরমাণু শক্তি কমিশন বা আইএইএ-এর মতো এআই সেফটি অরগানাইজেশন প্রতিষ্ঠারও প্রস্তাব দিয়েছেন।

গত মার্চ মাসে ১ হাজারেরও বেশি প্রযুক্তিবিদ ও গবেষক এক খোলা চিঠিতে কৃত্রিম বুদ্ধিমত্তার বিকাশ ৬ মাসের জন্য বন্ধ রাখার আহবান জানিয়েছিল। ওই চিঠিতে বলা হয়েছিল, এই প্রযুক্তিগুলো তৈরির যে লাগামহীন প্রতিযোগিতা, তার ফলে আরও শক্তিশালী ডিজিটাল বুদ্ধি তৈরি হওয়ার সম্ভাবনা দেখা দিয়েছে। ওই খোলা চিঠিতে স্বাক্ষর করেছিলেন ইলন মাস্ক, যিনি ওপেনএআইয়ের প্রতিষ্ঠাতাদের একজন। যদিও পরবর্তীতে তিনি প্রতিষ্ঠানটি ছেড়ে চলে যান এবং কৃত্রিম বুদ্ধিমত্তার অভাবনীয় উত্থান নিয়ে তীব্র সমালোচনামুখর হন।  

সূত্র: নিউ ইয়র্ক টাইমস
গ্রন্থনা:
আহমেদ হিমেল
 

Comments

The Daily Star  | English

Teesta floods bury arable land in sand, leaving farmers devastated

40 unions across 13 upazilas in Lalmonirhat, Kurigram, Rangpur, Gaibandha, and Nilphamari are part of the Teesta shoal region

50m ago