
সংবাদভিত্তিক তথ্য সরবরাহে কৃত্রিম বুদ্ধিমত্তা বা এআই অ্যাসিস্ট্যান্টগুলোর কার্যকারিতা নিয়ে নতুন এক গবেষণায় উঠে এসেছে উদ্বেগজনক চিত্র। ইউরোপীয় ব্রডকাস্টিং ইউনিয়ন (ইবিইউ) এবং বিবিসির যৌথ গবেষণায় দেখা গেছে—সংবাদের সঙ্গে সম্পর্কিত প্রশ্নে এআই-এর দেওয়া প্রায় অর্ধেক উত্তরেই তথ্য বিকৃতি বা ভুল উপস্থাপন পাওয়া গেছে।
গবেষণাটি পরিচালনা করেছে ফ্রান্স, জার্মানি, স্পেন, ইউক্রেন, যুক্তরাজ্য ও যুক্তরাষ্ট্রসহ ১৮টি দেশের ২২টি পাবলিক সার্ভিস মিডিয়া সংস্থা। তারা চ্যাটজিপিটি, কোপাইলট, জেমিনি প্রভৃতি জনপ্রিয় এআই মডেলের তিন হাজার প্রতিক্রিয়া বিশ্লেষণ করে ১৪টি ভাষায় নির্ভুলতা, উৎস ও পক্ষপাত যাচাই করেছেন।
ফলাফলে দেখা যায়, মোট প্রতিক্রিয়ার ৪৫ শতাংশে অন্তত একটি বড় ধরনের ত্রুটি ছিল, আর ৮১ শতাংশ প্রতিক্রিয়ায় কোনো না কোনো সমস্যা পাওয়া গেছে। সবচেয়ে বেশি সমস্যার জায়গা ছিল সূত্র ব্যবহারে—প্রায় এক-তৃতীয়াংশ উত্তরেই ভুল বা বিভ্রান্তিকর সূত্র ছিল, অনেক ক্ষেত্রেই কোনো সূত্রই দেওয়া হয়নি।
বিশেষ করে গুগলের জেমিনি অ্যাসিস্ট্যান্টের ক্ষেত্রে এই ত্রুটির হার ছিল সবচেয়ে বেশি—তার প্রায় ৭২ শতাংশ প্রতিক্রিয়ায় বড় ধরনের সোর্সিং ত্রুটি ধরা পড়েছে। অন্যদিকে, চ্যাটজিপিটি ও কোপাইলটের মতো প্ল্যাটফর্মে এই হার ছিল তুলনামূলকভাবে কম, প্রায় ২৫ শতাংশের নিচে।
গবেষণা অনুযায়ী, এআই প্রতিক্রিয়ার প্রায় এক-পঞ্চমাংশে ছিল তথ্যগত ভুল বা পুরনো উপাত্তের ব্যবহার। বিশেষজ্ঞরা বলছেন, সংবাদ সংগ্রহে এআই-এর ওপর ক্রমবর্ধমান নির্ভরতা তথ্যের নির্ভুলতা ও বিশ্বাসযোগ্যতার ওপর নেতিবাচক প্রভাব ফেলতে পারে।
ইবিইউ সতর্ক করেছে, প্রচলিত সার্চ ইঞ্জিনের বিকল্প হিসেবে এআই টুলগুলোর ব্যবহারের প্রবণতা বাড়তে থাকায় মানুষ বাস্তব সংবাদ ও মতামত-ভিত্তিক তথ্যের পার্থক্য করতে ক্রমেই বেশি বিভ্রান্ত হচ্ছে—যা সংবাদমাধ্যমের প্রতি আস্থার সংকট তৈরি করতে পারে।





























