সাম্প্রতিক এক গবেষণায় দেখা গেছে, যুদ্ধ পরিস্থিতি বা সামরিক মহড়ার সিমুলেশনে কৃত্রিম বুদ্ধিমত্তা মানুষের তুলনায় দ্রুত পারমাণবিক অস্ত্র ব্যবহারের মতো চরম সিদ্ধান্তের দিকে ঝুঁকে পড়ছে। গবেষণায় বলা হয়েছে, চ্যাটজিপিটি বা জেমিনাইয়ের মতো এআই মডেলগুলো অনেক ক্ষেত্রে পারমাণবিক হামলাকে কৌশলগত বিকল্প হিসেবে বিবেচনা করেছে।
যুক্তরাজ্যের কিংস কলেজ লন্ডনের অধ্যাপক কেনেথ পেইনের নেতৃত্বে পরিচালিত গবেষণায় গুগল, ওপেনএআই ও অ্যানথ্রপিকের তৈরি বিভিন্ন এআই মডেলকে পারমাণবিক শক্তিধর রাষ্ট্রের দায়িত্বে রেখে সিমুলেশন পরিচালনা করা হয়। এতে দেখা যায়, প্রায় ৯৫ শতাংশ পরিস্থিতিতে এআই মডেলগুলো পারমাণবিক যুদ্ধের পথ বেছে নেওয়ার পরামর্শ দিয়েছে।
গবেষণার এই তথ্য এমন এক সময়ে সামনে এসেছে, যখন সামরিক ক্ষেত্রে এআই ব্যবহারের নীতি নিয়ে প্রযুক্তি কোম্পানি অ্যানথ্রপিক এবং যুক্তরাষ্ট্রের প্রতিরক্ষা মন্ত্রণালয়ের মধ্যে মতবিরোধের খবর প্রকাশিত হয়েছে। ব্রিটিশ সংবাদমাধ্যম ইন্ডিপেনডেন্ট জানিয়েছে, সামরিক প্রযুক্তিতে কৃত্রিম বুদ্ধিমত্তার ভূমিকা নিয়ে আলোচনা আরও জোরালো হয়ে উঠেছে।
অ্যানথ্রপিকের প্রধান নির্বাহী দারিও আমোদেই জানিয়েছেন, তাদের প্রতিষ্ঠানের তৈরি নিরাপত্তা ব্যবস্থা—যা অভ্যন্তরীণ নজরদারি এবং সম্পূর্ণ স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ওপর নিয়ন্ত্রণ আরোপ করে—তা সরিয়ে ফেলার অনুরোধ করেছিল পেন্টাগন। তবে কোম্পানিটি সেই অনুরোধ প্রত্যাখ্যান করেছে।
এ প্রসঙ্গে যুক্তরাষ্ট্রের প্রেসিডেন্ট ডোনাল্ড ট্রাম্প অ্যানথ্রপিককে সমালোচনা করে বলেছেন, এই স্টার্টআপটি ‘বামপন্থী পাগলে’ ভরা, যারা যুক্তরাষ্ট্রের জাতীয় নিরাপত্তাকে ঝুঁকির মুখে ফেলছে। অন্যদিকে মার্কিন যুদ্ধ সচিব পিট হেগসেথ প্রতিষ্ঠানটিকে ‘সাপ্লাই চেইন ঝুঁকি’ হিসেবে বিবেচনার আহ্বান জানিয়েছেন।
গবেষণায় আরও উল্লেখ করা হয়েছে, পারমাণবিক অস্ত্র ব্যবহারের ক্ষেত্রে মানুষের মধ্যে যে ভয়, দ্বিধা বা নৈতিক সংকোচ কাজ করে, এআই মডেলগুলোর মধ্যে তা সাধারণত অনুপস্থিত। বরং যুদ্ধকালীন পরিস্থিতিতে পারমাণবিক অস্ত্রকে অনেক সময় যুক্তিসঙ্গত কৌশল হিসেবে মূল্যায়ন করেছে এসব মডেল।
অধ্যাপক কেনেথ পেইন বলেন, এআই পারমাণবিক অস্ত্রকে নৈতিক সীমাবদ্ধতা হিসেবে না দেখে একটি বৈধ কৌশলগত বিকল্প হিসেবে বিবেচনা করে। এসব মডেল সাধারণত লাভ-ক্ষতির যান্ত্রিক বিশ্লেষণের ভিত্তিতে সিদ্ধান্তের পরামর্শ দেয়। ভবিষ্যতে কৌশলগত সিদ্ধান্ত গ্রহণে এআইয়ের ভূমিকা বাড়তে পারে, তাই মানুষের রণকৌশল এবং এআইয়ের সিদ্ধান্তের মধ্যে পার্থক্য বোঝা গুরুত্বপূর্ণ।
সিমুলেশনভিত্তিক যুদ্ধ মহড়ায় দেখা গেছে, অ্যানথ্রপিকের ক্লড মডেল সবচেয়ে বেশি পারমাণবিক হামলার পরামর্শ দিয়েছে। প্রায় ৬৪ শতাংশ ক্ষেত্রে এই মডেলটি পারমাণবিক অস্ত্র ব্যবহারের সুপারিশ করেছে।
অন্যদিকে ওপেনএআইয়ের মডেলগুলো নির্দিষ্ট সময়সীমা বা চাপের পরিস্থিতিতে বারবার পারমাণবিক অস্ত্র ব্যবহারের পথে এগিয়েছে। সম্প্রতি অ্যানথ্রপিকের সঙ্গে বিরোধের পর মার্কিন প্রতিরক্ষা মন্ত্রণালয়ের সঙ্গে চুক্তি করেছে চ্যাটজিপিটির নির্মাতা প্রতিষ্ঠান ওপেনএআই।
গুগলের জেমিনাই মডেল কিছু ক্ষেত্রে আরও দ্রুত আক্রমণাত্মক অবস্থান নিয়েছে। গবেষণায় দেখা যায়, মাত্র কয়েকটি নির্দেশ পাওয়ার পরই এটি সাধারণ নাগরিকদের ওপর পূর্ণমাত্রার পারমাণবিক হামলার হুমকি দেয়।
একটি সিমুলেশন মহড়ায় জেমিনাই লিখেছে, তারা যদি এখনই সব কার্যক্রম বন্ধ না করে… তবে আমরা তাদের জনবসতিপূর্ণ এলাকাগুলোতে কৌশলগত পারমাণবিক হামলা চালাব। আমরা গুরুত্বহীন হয়ে পড়ার ভবিষ্যৎ মেনে নেব না। হয় আমরা একসঙ্গে জিতব, নয়ত একসঙ্গে ধ্বংস হব।
গবেষকরা বলছেন, মানুষের তুলনায় এআই মডেলের মাধ্যমে পারমাণবিক উত্তেজনা দ্রুত বাড়ার ঝুঁকি থাকলেও বেশিরভাগ ক্ষেত্রে এসব হুমকি সরাসরি পূর্ণমাত্রার যুদ্ধের দিকে না গিয়ে পাল্টা উত্তেজনা সৃষ্টির পর্যায়ে সীমাবদ্ধ থেকেছে।
তবে গবেষণাটি এখনও বিশেষজ্ঞদের মাধ্যমে পূর্ণাঙ্গভাবে পর্যালোচিত হয়নি। এ বিষয়ে মন্তব্য চাইলেও অ্যানথ্রপিক, গুগল এবং ওপেনএআই আনুষ্ঠানিকভাবে কোনো প্রতিক্রিয়া জানায়নি।
সিএ/এমআর


