مطالعات جدید نشان میدهد مدلهای زبانی بزرگ در پردازش زبانهای کممنبع و تعاملات بینفرهنگی دچار سوگیریاند و پژوهشگران راهکارهایی برای رفع این نابرابریها ارائه کردهاند.
در تازهترین تحقیقات بینالمللی، گروهی از دانشمندان حوزه هوش مصنوعی و زبانشناسی هشدار دادهاند که مدلهای زبانی هوشمند، علیرغم پیشرفتهای فنی، همچنان با چالشهای جدی اخلاقی و فرهنگی روبهرو هستند؛ چالشهایی که میتواند از بازتولید سوگیریهای زبانی تا سوءاستفاده از دادههای فرهنگی ادامه یابد.
تهران-ایرانویو۲۴
به گزارش منابع علمی، مجموعهای از پژوهشهای منتشرشده در سال ۲۰۲۵ نشان میدهد که مدلهای زبانی بزرگ (LLM) در پردازش زبانهای کممنبع، خروجیهای دقیق و بیطرفانهای ارائه نمیدهند و این مسئله به نابرابری زبانی در دنیای دیجیتال دامن میزند. محققان برای مقابله با این مشکل، استفاده از دادههای مصنوعی، ترجمه چرخهای و آموزش چندزبانه را پیشنهاد کردهاند.
از سوی دیگر، استفاده بدون مجوز از متون فرهنگی یا مذهبی جوامع بومی برای آموزش مدلهای هوش مصنوعی، نگرانیهایی درباره «استعمار دیجیتال» برانگیخته است. در همین راستا، رویکردهایی چون حق حاکمیت داده بومی و قراردادهای «حق بازگشت داده» مورد توجه قرار گرفتهاند.
همچنین پروژههایی مانند XAI for Multilingual NLP در حال توسعه ابزارهایی هستند که نهتنها خروجی مدل را به زبان کاربر ارائه میدهند، بلکه فرآیند تصمیمگیری مدل را نیز بهصورت شفاف توضیح میدهند. هدف از این تلاشها، کاهش بیاعتمادی و خطاهای ترجمه ماشینی عنوان شده است.
در حوزه تولید گفتار و تقلید صدا، با گسترش فناوریهای تبدیل متن به گفتار (TTS) و شبیهسازی صدا، خطر جعل هویت صوتی افزایش یافته است. اتحادیه اروپا و کانادا در سال جاری میلادی پروژههای استانداردگذاری برای نشانهگذاری دیجیتال (Watermarking) صداهای مصنوعی را آغاز کردهاند.
همچنین پژوهشها نشان میدهد رباتهای گفتگو عمدتاً هنجارهای ارتباطی غربی را بازتولید میکنند و در تعامل با کاربران فرهنگهای غیرمستقیم، مانند بسیاری از جوامع آسیایی، دچار سوءتفاهم میشوند. راهکار پیشنهادی در این زمینه، آموزش مدلها با دادههای بینفرهنگی و استفاده از شاخصهای «حساسیت فرهنگی» است.
در نهایت، شرکتهایی مانند Hugging Face و Google Research سامانههای «Bias Dashboard» را معرفی کردهاند که امکان پایش مداوم تغییرات سوگیری زبانی مدلها را در طول زمان فراهم میکند.
کارشناسان تأکید دارند که ورود هوش مصنوعی به زندگی روزمره، نیازمند توجه همزمان به کارایی فنی و عدالت فرهنگی است؛ بیتوجهی به این اصل، میتواند شکافهای زبانی و اجتماعی را در جهان دیجیتال تعمیق کند.