মানুষের ‘বিলুপ্তির ঝুঁকি’ তৈরি করেছে এআই, প্রযুক্তিবিদদের সতর্কবার্তা

ছবি: সংগৃহীত

একদল নের্তৃস্থানীয় প্রযুক্তিবিদ গত ৩০ মে জানিয়েছেন, তারা যে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি তৈরি করছেন তা একদিন মানব অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াতে পারে এবং এই প্রযুক্তিকে মহামারি এবং পারমাণবিক যুদ্ধের মতো বড় ঝুঁকি হিসেবে বিবেচনা করা উচিত।

সেন্টার ফর এআই সেফটি নামের একটি অলাভজনক সংস্থার এক বাক্যের বিবৃতিতে বলা হয়েছে, 'মহামারি ও পারমাণবিক যুদ্ধের মতো এআইয়ের কারণে বিলুপ্তির ঝুঁকি কমানোকেও সমান গুরুত্ব দেওয়া উচিত।'

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এই খোলা চিঠিতে স্বাক্ষর করেছেন।

স্বাক্ষরদাতাদের মধ্যে রয়েছেন ৩টি নের্তৃস্থানীয় এআই কোম্পানির প্রধান নির্বাহীরা- ওপেনএআইয়ের প্রধান নির্বাহী স্যামুয়েল অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রোপিকের প্রধান নির্বাহী ডারিও আমোদেই।

নিউরাল নেটওয়ার্ক নিয়ে কাজের জন্য টুরিং পুরস্কার বিজয়ী জিওফ্রে হিনটন এবং যশুয়া বেনিজও, যাদেরকে আধুনিক এআই প্রযুক্তির 'গডফাদার' হিসেবে বিবেচনা করা হয়, তারাও এই বিবৃতিতে স্বাক্ষর করেছেন। তবে টুরিং পুরস্কার বিজয়ী তৃতীয় গবেষক ইয়ান লিক্যান, যিনি আবার মেটার এআই গবেষণা কাজে নের্তৃত্ব দিচ্ছেন, ৩১ মে পর্যন্ত বিবৃতিতে স্বাক্ষর করেননি।

বিবৃতিটি এমন সময়ে প্রকাশ করা হলো, যখন কৃত্রিম বুদ্ধিমত্তার ঝুঁকি নিয়ে উদ্বেগ ক্রমশ বাড়ছে। এই খাতে সাম্প্রতিক অগ্রগতি হচ্ছে তথাকথিত 'লার্জ ল্যাংগুয়েজ মডেল', যার সাহায্যে চ্যাটজিপিটি বা বার্ডের মতো চ্যাটবটগুলো চলতে পারে। অনেকেই আশঙ্কা করছেন এই লার্জ ল্যাংগুয়েজ মডেল ভবিষ্যতে ভুয়া তথ্য ও প্রপাগান্ডা ছড়ানোর কাজে ব্যবহৃত হবে এবং মানুষের লাখ লাখ চাকরি কেড়ে নেবে।

এমনকি কেউ কেউ বিশ্বাস করেন, কৃত্রিম বুদ্ধিমত্তার অগ্রগতির হার যদি এখনই নিয়ন্ত্রণে না আনা হয়, তাহলে এটি এতটাই শক্তিশালী হয়ে উঠতে পারে যে কয়েক বছরের মধ্যে সমাজে অস্থিরতা তৈরি করতে পারে। যদিও এআই কীভাবে এই সামাজিক অস্থিরতা তৈরি করবে, গবেষকেরা তা এখনো নিশ্চিতভাবে বলতে পারেননি।

কৃত্রিম বুদ্ধিমত্তা নিয়ে এই ভয় ও আশঙ্কা এই খাতের অসংখ্য নেতৃবৃন্দের। কিন্তু তারপরও তারা প্রতিদ্বন্দ্বী কোম্পানিগুলোর তুলনায় দ্রুততম সময়ে আরও উন্নত ও শক্তিশালী এআই প্রযুক্তি তৈরিতে নিজেদের সর্বোচ্চ চেষ্টা করছে। ফলে ঝুঁকি আরও বাড়ছে। বিশষেজ্ঞরা বলছেন, এআই সম্পর্কে আরও কঠোর নিয়ম-কানুন আরোপ করা উচিত।

স্যাম (স্যামুয়েল) অল্টম্যান এবং ডেমিস হাসাবিস এআই সম্পর্কিত বিধিবিধান কেমন হওয়া উচিত, তা নিয়ে আলোচনা করতে সম্প্রতি মার্কিন প্রেসিডেন্ট জো বাইডেন এবং ভাইস প্রেসিডেন্ট কামালা হ্যারিসের সঙ্গে দেখা করেছেন। তাদের স্বাক্ষাতের পর মার্কিন সিনেটের শুনানিতে হাজির হয়ে স্যাম অল্টম্যান কৃত্রিম বুদ্ধিমত্তার ঝুঁকিগুলো কী কী, তা বর্ণনা করেছেন এবং এআইয়ের সম্পর্কিত বিধিবিধান তৈরির জন্য সরকারি হস্তক্ষেপের ওপর জোর দিয়েছেন।

সিনেট শুনানিতে স্যাম অল্টম্যান বলেন, 'আমি মনে করি এই প্রযুক্তি যখন খারাপ কিছু করে, তখন তা আরও বেশি খারাপ হওয়ার সম্ভাবনা বেশি। এমন পরিস্থিতি এড়াতে আমরা সরকারের সঙ্গে কাজ করতে চাই।'

ওপেনএআইয়ের প্রধান নির্বাহী বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেওয়ার জন্য একটি নতুন সংস্থা গড়ে তোলা প্রয়োজন। এ ছাড়া গণতন্ত্রের ওপর এর সম্ভাব্য প্রভাব সম্পর্কেও নিজের উদ্বেগ জানিয়েছেন অল্টম্যান।

সেন্টার ফর এআই সেফটির নির্বাহী পরিচালক ড্যান হ্যান্ড্রিকস বলেন, 'এই বিবৃতিটির মাধ্যমে যারা এআইয়ের ঝুঁকি নিয়ে এতদিন গোপনভাবে কথা বলতেন, তারাও প্রকাশ্যে এলেন এবং নিজেরা যে প্রযুক্তি তৈরি করছেন, তার ঝুঁকি নিয়ে খোলামেলা কথা বললেন।'

'এমনকি এআই সম্প্রদায়ের মধ্যেও একটি ভুল ধারণা রয়েছে যে, হয়তো অল্প সংখ্যক মানুষই এর ঝুঁকি সম্পর্কে কথা বলছেন। কিন্তু বাস্তবতা হচ্ছে অনেকেই গোপনে গোপনে এই প্রযুক্তির ঝুঁকি নিয়ে কথা বলছেন।'

কেউ কেউ অবশ্য যুক্তি দেখান যে এআই প্রযুক্তি এখনো অস্তিত্বের হুমকি তৈরি করার জন্য পরিপক্ক হয়ে উঠেনি। বরং তারা বর্তমানে যে এআই সিস্টেমগুলো সবাই ব্যবহার করছে, সেগুলোর দীর্ঘমেয়াদী বিপদের চেয়ে পক্ষপাতদুষ্ট এবং ভুল উত্তরের মতো স্বল্পমেয়াদী সমস্যাগুলো নিয়ে বেশি উদ্বিগ্ন।

তবে অন্যদের যুক্তি হচ্ছে, এআই এত দ্রুত উন্নতি করছে যে এটি ইতোমধ্যে কিছু ক্ষেত্রে মানুষের বুদ্ধি ও দক্ষতাকে ছাড়িয়ে গেছে এবং শিগগিরই অন্যান্য ক্ষেত্রেও মানুষকে ছাড়িয়ে যাবে। তারা বলছেন, এই প্রযুক্তির উচ্চতর সক্ষমতা ও বোঝার ক্ষমতা ইতোমধ্যে প্রমাণ হয়েছে। ফলে অদূর ভবিষ্যতে অনেকগুলো কাজের ক্ষেত্রে এটি মানুষকে হটিয়ে দেবে।

সম্প্রতি লেখা এক ব্লগ পোস্টে স্যাম অল্টম্যান এবং ওপেনএআইয়ের আরও ২ জন নির্বাহী এআই প্রযুক্তিকে কীভাবে দায়িত্বশীলতার সঙ্গে নিয়ন্ত্রণ করা যায়, তার পরামর্শ দিয়েছেন। তারা এআই প্রযুক্তি তৈরি করা প্রতিষ্ঠানগুলোর মধ্যে আরও সমন্বয়, লার্জ ল্যাংগুয়েজ মডেল সম্পর্কে আরও গভীর গবেষণার প্রস্তাব দিয়েছেন। একই সঙ্গে আন্তর্জাতিক পরমাণু শক্তি কমিশন বা আইএইএ-এর মতো এআই সেফটি অরগানাইজেশন প্রতিষ্ঠারও প্রস্তাব দিয়েছেন।

গত মার্চ মাসে ১ হাজারেরও বেশি প্রযুক্তিবিদ ও গবেষক এক খোলা চিঠিতে কৃত্রিম বুদ্ধিমত্তার বিকাশ ৬ মাসের জন্য বন্ধ রাখার আহবান জানিয়েছিল। ওই চিঠিতে বলা হয়েছিল, এই প্রযুক্তিগুলো তৈরির যে লাগামহীন প্রতিযোগিতা, তার ফলে আরও শক্তিশালী ডিজিটাল বুদ্ধি তৈরি হওয়ার সম্ভাবনা দেখা দিয়েছে। ওই খোলা চিঠিতে স্বাক্ষর করেছিলেন ইলন মাস্ক, যিনি ওপেনএআইয়ের প্রতিষ্ঠাতাদের একজন। যদিও পরবর্তীতে তিনি প্রতিষ্ঠানটি ছেড়ে চলে যান এবং কৃত্রিম বুদ্ধিমত্তার অভাবনীয় উত্থান নিয়ে তীব্র সমালোচনামুখর হন।  

সূত্র: নিউ ইয়র্ক টাইমস
গ্রন্থনা:
আহমেদ হিমেল
 

Comments

The Daily Star  | English
Global fashion brands are reaping triple-digit profits on Bangladeshi garments

Fast fashion, fat margins: How retailers cash in on low-cost RMG

Global fashion brands are reaping triple-digit profits on Bangladeshi garments, buying at $3 and selling for three to four times more. Yet, they continue to pressure factories to cut prices further.

13h ago