افغانستان و تراژدی غیبت در دنیای هوش مصنوعی

اطلاعات روز
اطلاعات روز

عیدمحمد فروغ

هوش مصنوعی دیگر یک نوآوری ساده‌ی تکنولوژیکی نیست؛ این فناوری به جایی رسیده که نه‌تنها کارهای انسانی را انجام می‌دهد بلکه تحلیل می‌کند، تصمیم می‌گیرد و حتا در خلاقیت‌های بشری دخالت می‌کند و آن‌ها را به چالش می‌کشد. کارهایی که زمانی تنها به‌دست انسان‌ها انجام می‌شد، خیلی‌های آن به الگوریتم‌ها سپرده شده است؛ از انتخاب‌های ساده مانند رنگ، لباس و کتاب گرفته تا تشخیص بیماری و مشوره‌ی روان‌شناسی. اما پرسش اصلی این است: وقتی الگوریتم‌ها بر داده‌هایی آموزش می‌بینند که به‌طور طبیعی و جغرافیای نامتوازن است، چه کسانی در آینده دیده می‌شوند و چه کسانی از این تصویر حذف می‌شوند؟ افغانستان یکی از روشن‌ترین نمونه‌ها است؛ کشوری که سال‌ها در حاشیه‌ی سیاست جهانی بود و اکنون در حافظه‌ی فناوری هم همان مسیر را طی می‌کند.

مدل‌های هوش مصنوعی مولد (Generative AI) براساس داده‌های عظیم ساخته می‌شوند؛ داده‌هایی که بیشتر از زبان‌ها و فرهنگ‌هایی آمده‌اند که خاستگاه اصلی این فناوری ‌اند. انگلیسی ستون اصلی این بانک‌ها است، بعد از آن زبان‌های اروپایی مانند فرانسوی و آلمانی سهم بزرگی دارند. اما زبان‌هایی مثل دری و پشتو در این میان تقریبا نامرئی ‌اند. طبیعی است که الگوریتم‌ها «استاندارد» و «طبیعی» را همان چیزی بدانند که بارها و بارها در داده‌ها دیده‌اند: تجربه‌ی غربی. در علوم داده به این وضعیت «سوءگیری داده» (Data Bias) می‌گویند، و وقتی در قالب مدل‌ها تثبیت شود، به «سوءگیری ساختاری» (Structural Bias) بدل می‌شود. این سوءگیری عمدی نیست بلکه محصول نبود توازن در داده‌ها است. مشکلات تخنیکی هم این شکاف را بیشتر می‌کنند: خط دری و پشتو با املاهای گوناگون و حرکات اختیاری، در مرحله‌ی «توکن‌سازی» خطا می‌آفرینند؛ دیتاست‌های معیاری کمی وجود دارد و متن‌های موازی با زبان‌های جهانی اندک ‌اند. در نتیجه مدل‌ها تصویر مبهم، ناقص و تحریف‌شده‌ای از زبان و فرهنگ افغانستان دارند.

پی‌آمد این نابرابری در زندگی روزمره‌ی مردم آشکار می‌شود. تصور کنید کسی در افغانستان از یک ابزار روان‌شناسی مبتنی بر هوش مصنوعی برای درمان چالش‌های روانی‌اش مشوره بگیرد. الگوریتمی که بیشتر با داده‌ها واقعیت‌های جغرافیای دیگر آموزش یافته است، توصیه می‌کند: «به روان‌شناس مراجعه کن»، «برای مدتی تنها و‌ دور از مجامع پر ازدحام زندگی کن»، «برای مدتی سفر کن» یا «برای کاهش استرس، یادگیری آلات موسیقی مفید است»، چنین مشوره‌هایی شاید در نیویورک، برلین یا شهرهای دیگر جهان طبیعی باشد، اما در افغانستان وضع فرق دارد. در اکثر مناطق، کلینیک روان‌شناسی وجود ندارد، و به‌خصوص در شرایط کنونی، حتا دروازه‌های شفاخانه‌ها و کلینیک‌های صحی به‌روی زنان و دختران بسته است.‌ مشوره «یادگیری آلات موسیقی» در افغانستان به‌مثابه‌ی امضا کردن سند مرگ است. همچنین، توصیه‌ای «برای مدتی سفر کن»، برای یک افغانستانی غیرممکن است. به‌خصوص برای زنان و دختران که دچار محدودیت‌های شدید اند. در چنین وضعی، الگوریتم به‌جای آن‌که امید بدهد، احساس بن‌بست می‌آفریند؛ فرد با «ناسازگاری شناختی» روبه‌رو می‌شود.

این شکاف در عرصه‌های دیگر هم دیده می‌شود. نقشه‌های دیجیتال مثل گوگل ماپ، بسیاری از سرک‌ها، راه‌ها و روستاهای افغانستان را ثبت نکرده یا غلط نشان می‌دهند. ترجمه‌های ماشینی دری و پشتو معنای اصلی جملات را تغییر می‌دهند چون داده‌های موازی کافی وجود ندارد. الگوریتم‌های پالایش و ترجمه محتوا در شبکه‌های اجتماعی هم بارها نوشته‌های کاربران افغانستانی را به‌دلیل سوء‌فهم زبانی حذف کرده یا در حاشیه برده‌اند. وقتی این خطاها کنار هم قرار می‌گیرند، چنین برداشت می‌شود که افغانستان در حافظه‌ی دیجیتال یا غایب است یا کاریکاتوری از آن باقی می‌ماند.

این مشکل وقتی با ساختار سیاسی و امنیتی فعلی گره می‌خورد، شدیدتر می‌شود. طالبان نه‌تنها آزادی بیان را خاموش کرده‌اند بلکه امکان تولید داده‌ی بومی را هم تقریبا گرفته‌اند. قطع کامل اینترنت در روزهای اخیر فقط یک توقف ارتباطی نبود؛ براساس گزارش‌های نیت‌بلاکس، در همان لحظه جریان تولید، ذخیره و انتقال داده‌ی محلی کاملا متوقف شد. در ضمن، شایعه‌ی محدودسازی اینترنیت، شدید و جدی‌تر از قبل است. هر بار که این اتفاق رخ دهد، سهم اندک افغانستان در بانک‌های داده‌ی جهانی باز هم کوچک‌تر می‌شود. از سوی دیگر، نظارت همه‌جانبه بر فضای مجازی، مردم را از بیان آزاد و متنوع بازمی‌دارد. نتیجه‌ی مستقیم این «نظارت دیجیتالی» این است که فضای آنلاین افغانستان هر روز فقیرتر و محدودتر می‌شود و الگوریتم‌های آینده با داده‌هایی جانبدارانه آموزش خواهند دید.

در چنین شرایطی پرسش جدی مطرح می‌شود: آیا می‌توان به الگوریتم‌هایی اعتماد کرد که براساس داده‌های نامتوازن ساخته شده‌اند؟ آیا مدلی که میلیون‌ها کاربر غربی را به‌ خوبی می‌شناسد اما از درک افغانستان عاجز است، می‌تواند عادلانه عمل کند؟ فلسفه‌ و نتایج تحقیق‌ها چنین می‌گوید که هیچ الگوریتمی بی‌طرف نیست؛ هر مدل انعکاسی است از داده‌ها، انتخاب‌های فنی و روابط قدرتی که پشت آن است. برای افغانستان، معنای این حقیقت آن است که تبعیض و حاشیه‌نشینی تاریخی فقط شکل عوض کرده است.

در بستر اجتماعی، مسأله‌ی افغانستان در عصر هوش مصنوعی، بازتاب همان حاشیه‌نشینی تاریخی است که حالا در قالب الگوریتم‌ها تکرار می‌شود. نبود حضور در بانک‌های داده به معنای نبود حضور در آینده است. حذف افغانستان از حافظه‌ی دیجیتال نه با جنگ و اقتصاد بلکه با سکوت الگوریتم‌ها رخ می‌دهد. همین که هوش مصنوعی درک درستی از ظرافت‌های اجتماعی و فرهنگی ما ندارد، یعنی افغانستان از منطق کدها محو شده است. آینده‌ی این سرزمین نه‌تنها در میدان سیاست که در لایه‌های پنهان فناوری هم رقم می‌خورد؛ جایی که الگوریتم‌ها با ادعای بی‌طرفی، بازتاب همان روابط قدرت ‌اند که گذشته را شکل داده‌اند.

تراژدی بزرگ عصر هوش مصنوعی برای افغانستان همین است: اگر این روند ادامه یابد، این سرزمین نه‌تنها از حافظه‌ی سیاسی بلکه از حافظه‌ی دیجیتال و منطق الگوریتم‌ها نیز پاک خواهد شد.

با دیگران به‌‌ اشتراک بگذارید
بدون دیدگاه