কৃত্রিম বুদ্ধিমত্তা বা এআই-এর ভয়াবহতা নিয়ে বরাবরই বলে আসছেন কেমব্রিজের এই লুকাসিয়ান অধ্যাপক। তার মতে, ঝুঁকিগুলো জলদি শনাক্তে আমাদের কোনো একটি উপায় তৈরি করা প্রয়োজন, যাতে ঝুঁকিগুলো দ্রুত বাড়তে না পারে।
ব্রিটিশ পত্রিকা টাইমস-কে তিনি বলেন, “সভ্যতার শুরু থেকেই আগ্রাসন দরকারি হয়ে পড়েছে যেহেতু স্পষ্টভাবেই এতে বেঁচে থাকার জন্য বাড়তি সুবিধা পাওয়া যায়।”
“এখন প্রযুক্তি এত দ্রুতগতিতে এগিয়ে গেছে যে এই আগ্রাসন কোনো পারমাণবিক যুদ্ধ বা ‘বায়োলজিক্যাল ওয়ার’-এর মাধ্যমে আমাদের সবাইকে ধ্বংস করে দিতে পারে। এই উত্তরাধিকার সত্ত্ব-কে আমাদের যুক্তি ও কারণের মাধ্যমে নিয়ন্ত্রণ করতে হবে।”
কিন্তু কে এই নিয়ন্ত্রণ করবে? ‘বিশ্ব সরকারের কোনো একটি রূপ’ এই কাজের জন্য আদর্শ হতে পারে বলে পরামর্শ দিয়েছেন হকিং। কিন্তু এটি নিজেই অনেক সমস্যা সৃষ্টি করতে পারে বলেও মত দিয়েছেন তিনি, জানিয়েছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট। “কিন্তু এই বিশ্ব সরকার স্বৈরশাসকেও পরিণত হতে পারে। এই সবকিছু ভয়াবহ পরিণতির মতো শোনাতে পারে কিন্তু আমি একজন আশাবাদী। আমি মনে করি মানবজাতি এই চ্যালেঞ্জগুলো মোকাবেলায় জেগে উঠবে।”
হকিং বলেন, “এআই-এর আসল ঝুঁকি এর বিদ্বেষ নিয়ে নয় বরং এর সক্ষমতা নিয়ে। অত্যন্ত বুদ্ধিমান একটি এআই তার লক্ষ্যগুলো পূরণে অত্যন্ত ভালো হতে পারে, আর এই লক্ষ্যগুলো যদি আমাদের সঙ্গে না মেলে আমরা বিপদে পড়ে যাব।”
“আপনি হয়তো কোনো দুষ্ট পিঁপড়া-শিকারী নন যিনি বিদ্বেষের কারণে পা দিয়ে পিষে  পিঁপড়া মেরে ফেলেন, কিন্তু আপনি যদি কোনো পানিবিদ্যুৎ সবুজ শক্তি প্রকল্পের প্রধান হন আর ওই অঞ্চলে পিঁপড়ার একটি আবাসস্থল পানিতে ভেসে যায়, তা পিঁপড়াগুলোর জন্য খুবই বাজে। আসুন মানব সভ্যতাকে ওই পিঁপড়াগুলো জায়গায় না দেই।”
একই ধরনের মত পোষণ করেন টেসলা প্রধান মার্কিন প্রকৌশলী ইলন মাস্কও। সম্প্রতি তিনি জানান, ভবিষ্যতে মানুষের বুদ্ধিমত্তা যন্ত্রের বুদ্ধিমত্তার সঙ্গে মিলে যেতে পারে।
 
Top