نویسنده: عدیل غزنوی
هوش مصنوعی بهعنوان یک فناوری تحولآفرین، در حوزههای مختلف از جمله اقتصاد، بهداشت و رسانهها کاربردهای گستردهای یافته است. بااینحال، استفادهی نادرست از هوش مصنوعی، بهویژه در تولید محتوا و مدیریت اطلاعات، میتواند موجب کاهش اعتماد عمومی شود. نقش هوش مصنوعی در کاهش اعتماد عمومی، زیانهای ناشی از تولید اطلاعات نادرست و پیآمدهای اجتماعی آن گستردهتر از آن است که در نگاه نخست به نظر میرسد.
اعتماد عمومی یکی از بنیانهای کلیدی پایداری اجتماعی و کارآمدی نهادهای حکومتی است. در سالهای اخیر، فناوری هوش مصنوعی با توانایی تولید محتوای متنی، تصویری و ویدیویی جعلی، ابعاد جدیدی از تهدیدات اجتماعی را ایجاد کرده است. این مسأله در کشورهایی با زیرساختهای رسانهای نوپا و آسیبپذیر، نظیر افغانستان، پیآمدهای شدیدی برای ثبات اجتماعی و سیاسی به همراه دارد.
در جامعهای که هنوز اعتماد عمومی به نهادهای سیاسی، رسانهای و اجتماعی شکننده است، ظهور و گسترش هوش مصنوعی به پدیدهای دوگانه بدل شده است: از یکسو فرصتی برای توسعهی آموزش، بهبود خدمات و دسترسی سریعتر به اطلاعات؛ و از سوی دیگر، ابزاری قدرتمند برای تولید و پخش خبرهای جعلی با سرعت و مقیاسی بیسابقه. در افغانستان امروز، این وجه دوم میتواند پیآمدهایی جدی و حتا خطرناکتر را در پی داشته باشد.
زیانها و چالشها
این ابزار دیجیتالی قادر به تولید محتوای بسیار واقعنما است که حتا کارشناسان را نیز میتواند گمراه کند. پژوهشها نشان میدهد که اطلاعات نادرست منتشرشده توسط هوش مصنوعی نهتنها باعث سردرگمی مخاطب میشود، بلکه میتواند تصمیمگیریهای سیاسی، اقتصادی و اجتماعی را تحت تأثیر قرار دهد. پیامهای منتشرشده ناشی از تولید ابزارهای دیجیتالی، حاوی پیامهای اقتصادی و بهداشتی و اطلاعات نادرست، مانند شایعات اقتصادی یا توصیههای پزشکی غلط، میتواند پیآمدهای ملموس و مستقیم برای زندگی روزمرهی مردم ایجاد کند و از جمله بازار و سلامت عمومی را در جامعه با چالش جدی روبهرو سازد.
از خطرناکترین ابعاد این پدیده، امکان تولید «دیپفیک»ها است؛ ویدیوهایی که در آن چهره یا صدای یک فرد بهگونهای مصنوعی بازسازی میشود تا سخنی را بیان کند که هرگز نگفته است. در فضای سیاسی شکنندهی افغانستان، انتشار چنین ویدیوهایی میتواند روابط قومی و سیاسی را ملتهبتر سازد و جامعه را به سمت قطببندی بیشتر سوق دهد. نتیجهی این روند، کاهش گفتوگوهای سازنده و افزایش تنشهای اجتماعی است و زمینهی سوءاستفادهی گروههای ذینفع را فراهم میکند.
تضعیف اعتماد به رسانهها و نهادها: در سالهای اخیر، این ابزار دیجیتالی نهتنها به ابزار قدرتمندی برای پیشرفت علمی و صنعتی تبدیل شده، بلکه به یک عامل بالقوهی خطرناک در فضای رسانهای و اجتماعی نیز بدل گردیده است. فناوریای که قرار بود زندگی انسانها را سادهتر و اطلاعات را دقیقتر کند، اکنون میتواند اعتماد عمومی را بهشدت تضعیف کند.
با افزایش محتوای جعلی، مخاطبان به منابع خبری رسمی نیز با تردید نگاه میکنند. کاهش اعتماد به رسانهها و نهادهای حکومتی، موجب افزایش بیاعتمادی اجتماعی و کاهش مشارکت مدنی میشود.
یکی از مهمترین چالشها، تولید محتوای جعلی و اخبار نادرست توسط الگوریتمهای هوشمند است. نرمافزارهایی که قادر به تولید متن، تصویر و حتا ویدیوهای کاملا واقعنما هستند، اکنون به راحتی میتوانند وقایع را تحریف کنند و مخاطب را در چرخهای از اطلاعات غلط گرفتار سازند.
بهگفتهی کارشناسان رسانه و جامعهشناسی، این مسأله، خصوصا در کشورهایی مانند افغانستان که زیرساختهای رسانهای هنوز در حال شکلگیری است، بسیار خطرناک است. این روند اعتماد را نسبت به رسانهها و دولت کاهش میدهد و هر خبر، حتا از منابع معتبر، به شک و تردید عمومی بدل میشود.
یکی دیگر از زیانهای هوش مصنوعی در این زمینه، افزایش شکافهای اجتماعی و سیاسی است. محتواهای سفارشی و هدفمند میتوانند احساسات قومی، سیاسی یا مذهبی را تحریک نمایند.
گمراهی و سردرگمی مخاطبان در سایه تاریک هوش مصنوعی: هوش مصنوعی، فناوریای که وعدهی تحول در زندگی روزمره، اقتصاد و رسانهها را داده، این روزها به یک چالش جدی برای اعتماد عمومی بدل شده است. توانایی تولید محتوای واقعنما، اعم از متن، تصویر و ویدیو، حتا کارشناسان و تحلیلگران خبره را نیز گمراه میکند. نتیجهی مستقیم این گمراهی، تأثیرگذاری بر تصمیمگیریهای سیاسی، اقتصادی و اجتماعی است و بنیان اعتماد عمومی را تهدید میکند.
در سالهای اخیر، نمونههای متعددی از پیآمدهای این فناوری دیده شده است: شایعات اقتصادی که بازارها را متلاطم میکنند، توصیههای پزشکی نادرست که سلامت عمومی را به خطر میاندازد و ویدیوهای «دیپفیک» که با بازسازی مصنوعی چهره و صدا، افراد را به گفتن سخنانی وادار میکند که هرگز نگفتهاند. انتشار چنین محتواهایی نهتنها مخاطب را سردرگم میکند، بلکه فضای سیاسی و اجتماعی را نیز ملتهب میسازد.
افغانستان، با زیرساختهای رسانهای نوپا و اعتماد عمومی شکننده، نمونهای بارز است که گسترش محتوای جعلی در آن میتواند پیآمدهای گسترده و خطرناکی داشته باشد. کاهش اعتماد به رسانهها و نهادها، افزایش شکافهای اجتماعی و اختلال در تصمیمگیریهای اقتصادی و بهداشتی، تنها بخشی از این چالشها است.
راهکارهای فرار
کارشناسان معتقد اند مقابله با این بحران نیازمند اقدامات چندجانبه است؛ از آموزش رسانهای و افزایش سواد دیجیتال مردم گرفته تا قوانین سختگیرانه برای کنترل تولید و انتشار محتوای جعلی. اگرچه فناوری هوش مصنوعی ظرفیتهای عظیمی دارد، اما بدون نظارت و اخلاق حرفهای، میتواند اعتماد عمومی را به راحتی ویران کند. در کنار این فکتورها، ابزارهای راستیآزمایی و منابع معتبر باید تقویت شوند تا مخاطبان بتوانند صحت اطلاعات را بررسی کنند. این رسانهها هستند که باید مسئولیتپذیر و شفاف باشند و با اطلاعرسانی دقیق و معتبر، موج اطلاعات نادرست را کاهش دهند.
در نهایت، این پرسش باقی میماند که آیا جامعهی ما میتواند از مزایای هوش مصنوعی بهره ببرد و در عین حال از خطرات آن محافظت کند، یا اینکه به قربانی این فناوری پرقدرت اما بیحدومرز بدل خواهد شد؟ پاسخ به این پرسش، آیندهی شفافیت، اعتماد و همبستگی اجتماعی را شکل خواهد داد.
برای فرار و عبور از این بحران اجتماعی، این راهکارها باید دنبال شود.
الف: سواد دیجیتال؛ خط مقدم نبرد با خبر جعلی
در عصر الگوریتمها، حقیقت دیگر خودبهخود پیروز نمیشود. هر کاربر شبکههای اجتماعی میتواند ناخواسته به بازوی انتشار یک دروغ بدل شود. در چنین فضایی، سواد دیجیتال تنها یک مهارت فنی نیست، بلکه یک ضرورت ملی است.
سواد رسانهای یعنی توان تشخیص منبع، فهم سازوکار تولید محتوا و پرهیز از بازنشر شایعه. جامعهای که آموزش نبیند، به آسانی قربانی اخبار ساختگی و دستکاریهای هوش مصنوعی خواهد شد.
افغانستان، که بخش بزرگی از گردش اطلاعاتش در شبکههای اجتماعی شکل میگیرد، بیش از هر زمان به آموزش گسترده و عملی سواد دیجیتال نیاز دارد. اگر شهروندان یاد بگیرند پیش از «اشتراکگذاری» بیندیشند، زنجیرهی دروغ کوتاه میشود و اعتماد عمومی نفس تازه میکند. در نبرد با خبر جعلی، نخستین سنگر، آگاهیدهی شهروندان است.
ب- نبرد نابرابر اعتماد عمومی با شایعات ماشینی
در عصر هوش مصنوعی، شایعه با سرعت نور میدود و حقیقت نفسنفس میزند. اگر قانون از الگوریتم عقب بماند، میدان بهدست کارخانههای دروغ میافتد. جامعهی دیجیتال بدون چارچوب روشن، شبیه شهری بیچراغ راهنمایی است؛ هرجومرج، نخستین پیآمد آن است.
قانونگذاری هوشمند باید دو تیغه داشته باشد: مهار نشر هدفمند اطلاعات نادرست و پاسداری از آزادی بیان. نه خاموشسازی صداها راهحل است و نه رهاسازی بیقید فضا؛ تعادل، همان خط باریک میان امنیت و آزادی است.
شفافیت مسئولیت پلتفرمها، معیارهای روشن نشر محتوا و سازوکارهای سریع راستیآزمایی، ستونهای یک نظم دیجیتال اند. در افغانستان، جایی که شبکههای اجتماعی به میدان اصلی خبر بدل شدهاند، این ستونها میتوانند از فروریختن اعتماد عمومی جلوگیری کنند. در نبرد با دروغهای ماشینی، قانون اگر هوشمند نباشد، بازنده است.
ج- شفافیت و اخلاق؛ کلید اعتماد در عصر هوش مصنوعی
هوش مصنوعی دیگر فقط ابزار نیست؛ قضاوتها، باورها و تصمیمهای ما را شکل میدهد. در این میدان، شفافیت و اخلاق حرفهای تنها سپر جامعه در برابر دستکاری و اطلاعات نادرست است.
شفافیت یعنی کاربران بدانند الگوریتمها چگونه کار میکنند و چرا محتوا به آنها نمایش داده میشود. در پهلوی این فکتور سازنده، اخلاق حرفهای تضمین میکند فناوری برای منافع صادقانه و به نفع جامعه به کار رود، نه برای دستکاری احساسات یا سوگیریهای سیاسی.
تجربهی جهانی نشان داده است شرکتهایی که این اصول را رعایت میکنند، اعتماد کاربران را حفظ کرده و بحرانهای اجتماعی را کاهش میدهند. در افغانستان، جایی که اعتماد عمومی هنوز شکننده است، رعایت این قواعد میتواند مرز میان پیشرفت و فروپاشی اجتماعی باشد.
نتیجه اینکه شفافیت و اخلاق، توصیهی فنی نیست، بلکه ضرورت اجتماعی است. هوش مصنوعی وقتی مسئولانه طراحی شود، نه سلاحی علیه اعتماد، بلکه ابزاری برای توسعه خواهد بود.
د- ابزارهای راستیآزمایی؛ سپر جامعه در برابر اخبار جعلی
در عصر شبکههای اجتماعی و هوش مصنوعی، هر کلیک میتواند یک شایعه را به «حقیقت» بدل کند. ابزارهای راستیآزمایی، نخستین خط دفاعی در برابر این موج اطلاعات نادرست هستند.
دسترسی آسان به منابع معتبر و فناوریهای ضد اخبار جعلی به کاربران اجازه میدهد صحت اطلاعات را بررسی کنند، از انتشار شایعات جلوگیری نمایند و تصمیمهای آگاهانه بگیرند. تجربههای بینالمللی نشان داده است جوامعی که از چنین ابزارهایی بهره میبرند، اعتماد عمومی بالاتر و تأثیر اخبار جعلی کمتر دارند. در افغانستان، جایی که شبکههای اجتماعی منبع اصلی اطلاعات برای بسیاری از مردم شدهاند، استفادهی گسترده از این ابزارها میتواند نقش حیاتی در حفاظت از اعتماد عمومی و ایجاد فضای دیجیتال امن داشته باشد.
هر شهروند با دسترسی به ابزارهای راستیآزمایی میتواند یک دیدبان حقیقت در جامعه باشد و موج اطلاعات نادرست را مهار کند. کارشناسان پیشنهاد میکنند رسانهها و نهادهای دولتی با همکاری نهادهای بینالمللی، برنامههای آموزشی و نظارتی را برای مقابله با انتشار اخبار جعلی راهاندازی کنند. این اقدامات میتواند مانع از گسترش بیاعتمادی و کاهش تأثیر منفی هوش مصنوعی بر سلامت جامعه شود.