عیدمحمد فروغ
هوش مصنوعی دیگر یک نوآوری سادهی تکنولوژیکی نیست؛ این فناوری به جایی رسیده که نهتنها کارهای انسانی را انجام میدهد بلکه تحلیل میکند، تصمیم میگیرد و حتا در خلاقیتهای بشری دخالت میکند و آنها را به چالش میکشد. کارهایی که زمانی تنها بهدست انسانها انجام میشد، خیلیهای آن به الگوریتمها سپرده شده است؛ از انتخابهای ساده مانند رنگ، لباس و کتاب گرفته تا تشخیص بیماری و مشورهی روانشناسی. اما پرسش اصلی این است: وقتی الگوریتمها بر دادههایی آموزش میبینند که بهطور طبیعی و جغرافیای نامتوازن است، چه کسانی در آینده دیده میشوند و چه کسانی از این تصویر حذف میشوند؟ افغانستان یکی از روشنترین نمونهها است؛ کشوری که سالها در حاشیهی سیاست جهانی بود و اکنون در حافظهی فناوری هم همان مسیر را طی میکند.
مدلهای هوش مصنوعی مولد (Generative AI) براساس دادههای عظیم ساخته میشوند؛ دادههایی که بیشتر از زبانها و فرهنگهایی آمدهاند که خاستگاه اصلی این فناوری اند. انگلیسی ستون اصلی این بانکها است، بعد از آن زبانهای اروپایی مانند فرانسوی و آلمانی سهم بزرگی دارند. اما زبانهایی مثل دری و پشتو در این میان تقریبا نامرئی اند. طبیعی است که الگوریتمها «استاندارد» و «طبیعی» را همان چیزی بدانند که بارها و بارها در دادهها دیدهاند: تجربهی غربی. در علوم داده به این وضعیت «سوءگیری داده» (Data Bias) میگویند، و وقتی در قالب مدلها تثبیت شود، به «سوءگیری ساختاری» (Structural Bias) بدل میشود. این سوءگیری عمدی نیست بلکه محصول نبود توازن در دادهها است. مشکلات تخنیکی هم این شکاف را بیشتر میکنند: خط دری و پشتو با املاهای گوناگون و حرکات اختیاری، در مرحلهی «توکنسازی» خطا میآفرینند؛ دیتاستهای معیاری کمی وجود دارد و متنهای موازی با زبانهای جهانی اندک اند. در نتیجه مدلها تصویر مبهم، ناقص و تحریفشدهای از زبان و فرهنگ افغانستان دارند.
پیآمد این نابرابری در زندگی روزمرهی مردم آشکار میشود. تصور کنید کسی در افغانستان از یک ابزار روانشناسی مبتنی بر هوش مصنوعی برای درمان چالشهای روانیاش مشوره بگیرد. الگوریتمی که بیشتر با دادهها واقعیتهای جغرافیای دیگر آموزش یافته است، توصیه میکند: «به روانشناس مراجعه کن»، «برای مدتی تنها و دور از مجامع پر ازدحام زندگی کن»، «برای مدتی سفر کن» یا «برای کاهش استرس، یادگیری آلات موسیقی مفید است»، چنین مشورههایی شاید در نیویورک، برلین یا شهرهای دیگر جهان طبیعی باشد، اما در افغانستان وضع فرق دارد. در اکثر مناطق، کلینیک روانشناسی وجود ندارد، و بهخصوص در شرایط کنونی، حتا دروازههای شفاخانهها و کلینیکهای صحی بهروی زنان و دختران بسته است. مشوره «یادگیری آلات موسیقی» در افغانستان بهمثابهی امضا کردن سند مرگ است. همچنین، توصیهای «برای مدتی سفر کن»، برای یک افغانستانی غیرممکن است. بهخصوص برای زنان و دختران که دچار محدودیتهای شدید اند. در چنین وضعی، الگوریتم بهجای آنکه امید بدهد، احساس بنبست میآفریند؛ فرد با «ناسازگاری شناختی» روبهرو میشود.
این شکاف در عرصههای دیگر هم دیده میشود. نقشههای دیجیتال مثل گوگل ماپ، بسیاری از سرکها، راهها و روستاهای افغانستان را ثبت نکرده یا غلط نشان میدهند. ترجمههای ماشینی دری و پشتو معنای اصلی جملات را تغییر میدهند چون دادههای موازی کافی وجود ندارد. الگوریتمهای پالایش و ترجمه محتوا در شبکههای اجتماعی هم بارها نوشتههای کاربران افغانستانی را بهدلیل سوءفهم زبانی حذف کرده یا در حاشیه بردهاند. وقتی این خطاها کنار هم قرار میگیرند، چنین برداشت میشود که افغانستان در حافظهی دیجیتال یا غایب است یا کاریکاتوری از آن باقی میماند.
این مشکل وقتی با ساختار سیاسی و امنیتی فعلی گره میخورد، شدیدتر میشود. طالبان نهتنها آزادی بیان را خاموش کردهاند بلکه امکان تولید دادهی بومی را هم تقریبا گرفتهاند. قطع کامل اینترنت در روزهای اخیر فقط یک توقف ارتباطی نبود؛ براساس گزارشهای نیتبلاکس، در همان لحظه جریان تولید، ذخیره و انتقال دادهی محلی کاملا متوقف شد. در ضمن، شایعهی محدودسازی اینترنیت، شدید و جدیتر از قبل است. هر بار که این اتفاق رخ دهد، سهم اندک افغانستان در بانکهای دادهی جهانی باز هم کوچکتر میشود. از سوی دیگر، نظارت همهجانبه بر فضای مجازی، مردم را از بیان آزاد و متنوع بازمیدارد. نتیجهی مستقیم این «نظارت دیجیتالی» این است که فضای آنلاین افغانستان هر روز فقیرتر و محدودتر میشود و الگوریتمهای آینده با دادههایی جانبدارانه آموزش خواهند دید.
در چنین شرایطی پرسش جدی مطرح میشود: آیا میتوان به الگوریتمهایی اعتماد کرد که براساس دادههای نامتوازن ساخته شدهاند؟ آیا مدلی که میلیونها کاربر غربی را به خوبی میشناسد اما از درک افغانستان عاجز است، میتواند عادلانه عمل کند؟ فلسفه و نتایج تحقیقها چنین میگوید که هیچ الگوریتمی بیطرف نیست؛ هر مدل انعکاسی است از دادهها، انتخابهای فنی و روابط قدرتی که پشت آن است. برای افغانستان، معنای این حقیقت آن است که تبعیض و حاشیهنشینی تاریخی فقط شکل عوض کرده است.
در بستر اجتماعی، مسألهی افغانستان در عصر هوش مصنوعی، بازتاب همان حاشیهنشینی تاریخی است که حالا در قالب الگوریتمها تکرار میشود. نبود حضور در بانکهای داده به معنای نبود حضور در آینده است. حذف افغانستان از حافظهی دیجیتال نه با جنگ و اقتصاد بلکه با سکوت الگوریتمها رخ میدهد. همین که هوش مصنوعی درک درستی از ظرافتهای اجتماعی و فرهنگی ما ندارد، یعنی افغانستان از منطق کدها محو شده است. آیندهی این سرزمین نهتنها در میدان سیاست که در لایههای پنهان فناوری هم رقم میخورد؛ جایی که الگوریتمها با ادعای بیطرفی، بازتاب همان روابط قدرت اند که گذشته را شکل دادهاند.
تراژدی بزرگ عصر هوش مصنوعی برای افغانستان همین است: اگر این روند ادامه یابد، این سرزمین نهتنها از حافظهی سیاسی بلکه از حافظهی دیجیتال و منطق الگوریتمها نیز پاک خواهد شد.