তথ্যপ্রযুক্তি ডেস্ক : প্রতিবেদন মতে, বিবিসিকে দেয়া এক বিশেষ সাক্ষাৎকারে তিনি বলেন, বর্তমানের এআই মডেলগুলো ভুল করার প্রবণতা রাখে এবং তাই এটিকে অন্যান্য টুলের পাশাপাশি ব্যবহার করা উচিত।
সুন্দর পিচাই বলেন, ফলে কেবল এআই-এর ওপর নির্ভরশীলতা নয়, প্রয়োজন একটি সমৃদ্ধ তথ্য ব্যবস্থা (ইনফরমেশন ইকোসিস্টেম)। তিনি বলেন, ‘এ কারণেই মানুষ গুগল সার্চ ব্যবহার করে। আমাদের আরও কিছু পণ্য আছে যা নির্ভুল তথ্য দেয়ার ক্ষেত্রে বেশি নির্ভরযোগ্য।’
তবে কিছু বিশেষজ্ঞ বলছেন, গুগলের মতো বৃহৎ প্রযুক্তি সংস্থাগুলোর উচিত তাদের সরঞ্জামগুলোর আউটপুট সম্পর্কে তথ্য যাচাই করার জন্য ব্যবহারকারীদের আমন্ত্রণ জানানো নয়, বরং তাদের সিস্টেমগুলোকে আরও নির্ভরযোগ্য করে তোলার দিকে মনোনিবেশ করা উচিত।
সুন্দর পিচাই বলেন, সৃজনশীল লেখালেখির মতো কাজে এআই টুল খুবই সহায়ক হলেও মানুষকে শিখতে হবে কোন কাজে এগুলো ভালো এবং কোন ক্ষেত্রে অন্ধভাবে বিশ্বাস না করাই ভালো। তিনি বিবিসিকে বলেন, যতটা সম্ভব নির্ভুল তথ্য দিতে আমরা অসংখ্য কাজ করি, কিন্তু বর্তমান অত্যাধুনিক এআই প্রযুক্তিও এখনও ভুল করে।
গুগল তার এআই টুলগুলোতে ডিসক্লেইমার প্রদর্শন করে যাতে ব্যবহারকারীরা বুঝতে পারেন যে তারা ভুল করতে পারেন। কিন্তু এটি তাদের নিজস্ব পণ্যের ত্রুটি নিয়ে সমালোচনা এবং উদ্বেগ থেকে তাদের রক্ষা করতে পারেনি।
গুগলের সার্চ ফলাফল সংক্ষেপ করতে এআই ওভারভিউ চালু করার পর কিছু ভুল জবাবের জন্য সমালোচনা ও উপহাস হয়েছে। চ্যাটবটের মতো জেনারেটিভ এআই পণ্যগুলোর বিভ্রান্তিকর বা মিথ্যা তথ্য প্রচারের প্রবণতা বিশেষজ্ঞদের মধ্যে উদ্বেগের কারণ হয়েছে।
লন্ডনের কুইন মেরি বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক জিনা নেফ বিবিসি রেডিও ৪-এর টুডে প্রোগ্রামে বলেন, ‘আমরা জানি এই সিস্টেমগুলো উত্তর তৈরি করে, এবং তারা আমাদের খুশি করার জন্য উত্তর তৈরি করে। এটা একটা সমস্যা।’
তিনি বলেন, ‘আমি যদি জিজ্ঞাসা করি ‘এরপর আমার কোন সিনেমা দেখা উচিত’ তাহলে ঠিক আছে। কিন্তু যদি আমি আমার স্বাস্থ্য, মানসিক সুস্থতা, বিজ্ঞান, সংবাদ সম্পর্কে সত্যিই সংবেদনশীল প্রশ্ন জিজ্ঞাসা করি তবে তা সম্পূর্ণ আলাদা।
গ্রাহকদের ওপর তা চাপিয়ে দেয়ার পরিবর্তে এই অধ্যাপক গুগলকে তার কৃত্রিম বুদ্ধিমত্তা বিষয়ক পণ্য এবং তাদের নির্ভুলতার ওপর আরও বেশি দায়িত্ব নেয়ার আহ্বান জানান।
কিউএনবি/আয়শা/১৮ নভেম্বর ২০২৫,/সন্ধ্যা ৬:০৪