 
																
								
                                    
									
                                 
							
							 
                    তথ্যপ্রযুক্তি ডেস্ক :  নতুন এক গবেষণায় দেখা গেছে, কৃত্রিম বুদ্ধিমত্তা চ্যাটবট চ্যাটজিপিটি-কে রূঢ় বা অমার্জিতভাবে প্রশ্ন করলে এটি আরও নির্ভুলভাবে উত্তর দেয়। যুক্তরাষ্ট্রের পেনসিলভানিয়া স্টেট ইউনিভার্সিটি এর এক গবেষণায় এমন তথ্য উঠে এসেছে।
গবেষকরা ওপেনএআই-এর জিপিটি-ফোর-ও মডেল ব্যবহার করে ২৫০টিরও বেশি ভিন্নধর্মী প্রশ্ন দিয়েছেন। কখনও ভদ্রভাবে, কখনও একেবারে রূঢ় ভঙ্গিতে প্রশ্ন দিয়েছেন। ফলাফলে দেখা যায়, রূঢ়ভাবে দেওয়া নির্দেশে মডেলটি বেশি নির্ভুলভাবে কাজ করেছে।
গবেষণাটি এখনো পিয়ার রিভিউ বিশেষজ্ঞ দ্বারা যাচাই হয়নি। তবে এতে দেখা গেছে ‘এই যে, এটা সমাধান করো’–এর মতো রূঢ় বাক্যে প্রশ্ন করলে মডেলের উত্তর ছিল প্রায় ৮৪.৮ শতাংশ সঠিক। যেখানে ভদ্রভাবে করা প্রশ্নে নির্ভুলতা ছিল প্রায় চার শতাংশ কম।
গবেষক অখিল কুমার, পেন স্টেটের অধ্যাপক, বলেন, প্রশ্নের ধরণ বা টোন সামান্য পরিবর্তন করলেও ফলাফল অনেক বদলে যায়। তার মতে, এটি প্রমাণ করে যে কৃত্রিম বুদ্ধিমত্তার প্রতিক্রিয়া মানুষের কথার ধরন ও গঠনের ওপর অনেকটাই নির্ভর করে।
তবে গবেষক দল সতর্ক করেছেন, রূঢ়ভাবে প্রশ্ন করা বা কথা বলার অভ্যাস মানুষের যোগাযোগের শালীনতাকে ক্ষুণ্ণ করতে পারে। এতে ব্যবহারকারীদের মধ্যে অসৌজন্যমূলক আচরণ বাড়তে পারে।
পূর্বের কিছু গবেষণায়ও দেখা গেছে, নিম্নমানের ভাষা বা নেতিবাচক কনটেন্টে বারবার সংস্পর্শে এলে এআই মডেলের পারফরম্যান্স কমে যায়। গবেষকেরা একে বলেন ‘ব্রেইন রট’ অর্থাৎ সময়ের সঙ্গে উত্তরগুলোর মান অবনতি।
অখিল কুমার বলেন, আমরা সব সময় চেয়েছি মানুষ যেন স্বাভাবিকভাবে মেশিনের সঙ্গে কথা বলতে পারে। কিন্তু এখন বুঝতে পারছি, কথোপকথনভিত্তিক ইন্টারফেসেরও কিছু সীমাবদ্ধতা আছে।
গবেষকেরা মনে করছেন, এই গবেষণা শুধু এআইয়ের দক্ষতা নয়, বরং মানুষ কীভাবে এআইয়ের সঙ্গে যোগাযোগ করে সেই বিষয়েও নতুন নৈতিক প্রশ্ন উত্থাপন করেছে।
কিউএনবি/অনিমা/৩১ অক্টোবর ২০২৫,/বিকাল ৫:৫৮