ဉာဏ်ရည်တု နည်းပညာ (AI)ဟာ မျက်မှောက်ကာလမှာတော့ နည်းပညာ အခြေပြု လုပ်ငန်းတွေအတွက် တစ်နေ့တခြား တွင်ကျယ် အသုံးဝင်လာနေပါတယ်။ အဲဒီထက် အများကြီး ပိုအစွမ်းထက်၊ ပိုပြည့်စုံတဲ့ AIတွေကို နိုင်ငံတကာ စစ်တပ်တွေကလည်း စစ်ရေး ရည်မှန်းချက်တွေအတွက် အသုံးချနေကြပါတယ်။ လက်ရှိ ဖြစ်ပွားနေတဲ့ အီရန်စစ်ပွဲဟာလည်း AI အထောက်အပံ့တွေကို လက်တွေ့ စမ်းသပ် အသုံးချနေတဲ့ စစ်မြေပြင်တစ်ခု ဖြစ်လာနေပါတယ်။ အထူးသဖြင့် အမေရိကန် စစ်တပ်ဟာ သုတေသနနဲ့ အခြေခံ အဆောက်အအုံတွေအတွက် ကုန်ကျစရိတ် ဒေါ်လာ ဘီလီယံနဲ့ချီ သုံးစွဲထားတဲ့ စစ်သုံး AI နည်းပညာတွေကို အီရန် စစ်မြေပြင်မှာ အလုံးအရင်း ဖြန့်ကျက် အသုံးပြုနေပါတယ်။
တစ်ဖက်မှာတော့ အမေရိကန် စစ်တပ်က AIကို သုံးစွဲနေတဲ့ နည်းလမ်းတွေနဲ့ ပတ်သက်ပြီး ကျင့်ဝတ်ပိုင်းအရ မေးခွန်းထုတ်မှုတွေ၊ ဝေဖန်တာတွေလည်း ရှိလာပါတယ်။ အမေရိကန် လွှတ်တော်မှာ အမတ်တွေက စစ်သုံး AI နည်းပညာနဲ့ ပတ်သက်ပြီး စည်းမျဉ်း ကန့်သတ်ချက်တွေ ထိထိရောက်ရောက် ရေးဆွဲ ပြဋ္ဌာန်းဖို့ နှိုးဆော် တိုက်တွန်းနေကြပါတယ်။ အမေရိကန် စစ်ဘက်နဲ့ နီးကပ်တဲ့ သတင်းရင်းမြစ် နှစ်ဦးက စစ်တပ်ဟာ Palantir ကုမ္ပဏီရဲ့ softwareတွေကို အီရန်က စစ်ဆင်ရေး ကဏ္ဍတွေမှာ အသုံးပြုနေတယ်လို့ ပြောပါတယ်။ အဲဒီsoftwareတွေမှာ Anthropic ကုမ္ပဏီက လေ့ကျင့်ပေးထားတဲ့ AI အထောက်အပံ့ စနစ်ကို အသုံးပြုထားပါတယ်။ အမေရိကန် စစ်တပ်ဟာ AI အထောက်အပံ့ပါတဲ့ အဲဒီ softwareကို အီရန်နိုင်ငံထဲက စစ်ရေး ပစ်မှတ်တွေကို ခွဲခြားဆန်းစစ်တဲ့၊ ရှာဖွေသတ်မှတ်တဲ့ နေရာတွေမှာ အသုံးချနေတယ်လို့ ဆိုပါတယ်။ အဲဒီ အခြေအနေမျိုးကပဲ ကျင့်ဝတ်ရေးရာ မေးခွန်းထုတ်စရာတွေကို ဖြစ်ပေါ်လာစေခဲ့ပါတယ်။
အမေရိကန် လွှတ်တော်အမတ်တွေကတော့ ရန်သူဖြစ်နေရင်တောင် လူ့အသက်တွေနဲ့ ပတ်သက်နေတဲ့ ဆုံးဖြတ်ချက်ကို လူသားမဟုတ်တဲ့ ကွန်ပျူတာ တွက်ချက်မှု၊ မှတ်သားမှုတွေကပဲ ရွေးချယ်သွားတယ်ဆိုတာ ဖြစ်သင့်သလားလို့ ထောက်ပြ မေးခွန်းထုတ်ကြပါတယ်။ ရှင်သန်ခြင်းနဲ့ သေဆုံးခြင်းကို ရွေးချယ်ပေးမယ့် ဆုံးဖြတ်ချက်တွေမှာ AIအစား ခံစားသိမြင်မှုရှိတဲ့ လူသားတွေကပဲ ကျိန်းသေပေါက် ဆက်ပြီး တာဝန်ယူနေဖို့ လိုတယ်လို့ အမေရိကန် လွှတ်တော် အမတ်တွေက ပြောပါတယ်။ ဒီမိုကရက်တစ် ပါတီရဲ့ အောက်လွှတ်တော် အမတ်တစ်ဦးဖြစ်တဲ့ ဂျီလ်တိုကူဒါက AIကြောင့် လူ့အသက်တွေကို ခြိမ်းခြောက်တာ၊ အန္တရာယ်ဖြစ်စေတာတွေ ရှိနေပြီလား ဆိုတာကို ပြည့်စုံတဲ့၊ ဘက်မလိုက်တဲ့ ဝေဖန် ဆန်းစစ်တာတွေ လုပ်ဖို့ လိုကြောင်း၊ လူသားတွေရဲ့ ရှင်သန်မှု၊ သေဆုံးမှုကို စီရင်ဆုံးဖြတ်တဲ့ ကိစ္စအားလုံးဟာ လူသားတွေဆီမှာပဲ ရှိနေသင့်ကြောင်း NBCနဲ့ အင်တာဗျူးမှာ ပြောကြားခဲ့ပါတယ်။
တကယ်တော့ အခုလို ကျင့်ဝတ်ပိုင်းဆိုင်ရာ အငြင်းပွားစရာတွေက အရင်ကတည်းက ရှိနှင့်နေပြီးသားပါ။ ဥပမာအနေနဲ့ အမေရိကန်မှာ AIက အလိုအလျောက် ထိန်းချုပ်မောင်းနှင်ပေးတဲ့ မော်တော်ကားတွေ စတင်ပေါ်ပေါက်လာချိန်မှာ ပုံစံတူ အငြင်းအခုံတွေ ဖြစ်ခဲ့ဖူးပါတယ်။ AIက ထိန်းချုပ်ပေးနေတဲ့ ကားတစ်စီးက မတော်တဆ ဖြစ်နိုင်တဲ့ အခြေအနေ တစ်ခုခု ကြုံလာရင် ယာဉ်မောင်းရဲ့ လုံခြုံရေးကို ဦးစားပေးတဲ့ ဆုံးဖြတ်ချက်မျိုးကို ရွေးမလား၊ ဒါမှမဟုတ် လမ်းပေါ်က လူတွေ မထိခိုက်စေမယ့် ဆုံးဖြတ်ချက်မျိုးကို ရွေးမလား ဆိုတာမျိုး မေးခွန်းထုတ်တာတွေ ရှိခဲ့ပါတယ်။ လူသားတွေက အမှားတွေကို ရွေးချယ်တတ်တယ် ဆိုရင်တောင်မှ လူ့အသက်တွေနဲ့ ပတ်သက်တဲ့ အရေးကြီးတဲ့ အဆုံးအဖြတ် တစ်ခုကို စက်ကိရိယာတွေ လက်ထဲ ပုံအပ်ထားတာ မဖြစ်သင့်ကြောင်း ကျင့်ဝတ်ရေးရာ ပညာရှင်တွေက ပြောကြားခဲ့ပါတယ်။ အခုလည်း အီရန်စစ်ပွဲမှာ အဲဒီလို သဘောတရားမျိုးကို အခြေခံတဲ့ စိုးရိမ်မှုတွေ ဖြစ်ပေါ်လာပြန်ပါတယ်။

Public Service Announcement
အမေရိကန် ကာကွယ်ရေး ဝန်ကြီးဌာနနဲ့ AI နည်းပညာ ကုမ္ပဏီတွေကတော့ လူသားရဲ့ နောက်ဆုံး ဆုံးဖြတ်ချက် မပါဘဲ AIတွေကချည်းပဲ လူ့အသက်တွေကို စီရင်ဆုံးဖြတ်မယ့် ဆုံးဖြတ်ချက် တစ်ခုခု ချပိုင်ခွင့် မရှိဘူးဆိုတဲ့ သဘောထားကို မူအားဖြင့် လက်ခံထားပါတယ်။ ဒါပေမဲ့ စစ်တပ်က ပစ်မှတ်ရှာဖွေတဲ့ ကိစ္စလိုမျိုး စစ်ရေးကိစ္စတွေမှာ AI နည်းပညာကို စပြီး သုံးစွဲလာတဲ့အခါ အများစိုးရိမ်နေတဲ့ ကိစ္စတွေ လက်တွေ့ ဖြစ်ပေါ်လာနိုင်ခြေနဲ့ ပိုနီးကပ်လာပါတယ်။
ကာကွယ်ရေး ဝန်ကြီးဌာနဖြစ်တဲ့ ပင်တဂွန် စစ်ဌာနချုပ်ရဲ့ ပြောရေးဆိုခွင့်ရ အရာရှိ ရှောင်ပါနဲလ်ကတော့ အမေရိကန်ဟာ လူသားတွေရဲ့ နောက်ဆုံးအဆင့် ဆုံးဖြတ်ချက် မပါဘဲ AIတွေကို လက်နက်တွေ ပစ်ခတ်တာမျိုး ခွင့်ပြုမှာ မဟုတ်ဘူးလို့ ပြောကြားထားပါတယ်။ ဒါပေမဲ့ ပစ်မှတ်ရှာဖွေ သတ်မှတ်မှုတွေမှာ AIတွေကို အသုံးပြုနေခြင်းက ရှင်သန်ခြင်းနဲ့ သေဆုံးခြင်းကြား ရွေးချယ်မှုတွေအပေါ် သက်ရောက်စေတယ်လို့ စောင့်ကြည့်သူတွေက ပြောပါတယ်။ နောက်ပြီး AIတွေကသာ မှားယွင်း အဖြေထုတ်လိုက်တာ၊ တွက်ချက်မိတာ တစ်ခုခုကြောင့် ဖြစ်လာရင် အကျိုးဆက်က ဘယ်သူ တာဝန်ခံမလဲဆိုတဲ့ ရှုပ်ထွေးတဲ့ မေးခွန်းတွေလည်း ရှိနေပါသေးတယ်။ လူသားတွေလည်း မှားယွင်းနိုင်တယ် ဆိုပေမယ့် AIတွေကြောင့် ဖြစ်လာမယ့် လွဲချော်မှုနဲ့ အခြေအနေခြင်း မတူပါဘူး။
အောက်လွှတ်တော် အမတ်တစ်ဦးဖြစ်တဲ့ ဆာရာဂျက်ကော့ဘ်စ်က AIတွေက အသုံးဝင်တယ် ဆိုပေမယ့် ရာနှုန်းပြည့် ယုံကြည်စိတ်ချရတာ မဟုတ်ကြောင်း၊ ဒါကြောင့် လူ့အသက်တွေ သေဆုံးစေနိုင်တဲ့ ဆုံးဖြတ်ချက် တစ်ခုခု ချမှတ်တိုင်းမှာ လူသားတွေကပဲ တာဝန်ယူ ရွေးချယ်ဖို့အတွက် တင်းကျပ်တဲ့ စည်းမျဉ်းတွေ လိုအပ်ကြောင်း၊ စစ်မြေပြင်မှာ အဆုံးအဖြတ် အမှားတစ်ခုဟာ စစ်သည်တွေရော၊ အပြစ်မဲ့ ပြည်သူတွေကိုပါ အသက်တွေ ဆုံးရှုံးသွားစေနိုင်ကြောင်း ထောက်ပြခဲ့ပါတယ်။
Anthropicရဲ့ AIစနစ်ကို Claudeလို့ နာမည်ပေးထားပြီး Palantirအတွက် ပစ်မှတ်နဲ့ ပတ်သက်ပြီး လိုအပ်တဲ့ ထောက်လှမ်းရေး သတင်းအချက်အလက်တွေကို ကူညီပံ့ပိုး တွက်ချက်ပေး၊ ရှာဖွေပေးပါတယ်။ ဒါပေမဲ့ ဘယ်ပစ်မှတ်ကို ရွေးပါလို့တော့ တိုက်ရိုက် အကြံမပေးဘူးလို့ ဆိုပါတယ်။ အမေရိကန် စစ်တပ်ဟာ နှစ်ဆန်းပိုင်းတုန်းက ဗင်နီဇွဲလား နိုင်ငံပိုင်နက်ထဲ ဝင်ရောက်ပြီး သမ္မတ နစ်ကိုလက်စ် မာဒူရိုကို ဖမ်းဆီးခဲ့တဲ့ စစ်ဆင်ရေးမှာလည်း Claude AIကို အသုံးပြုခဲ့ပါတယ်။
စစ်ပွဲတွေမှာ AIကို အသုံးပြုမှုနဲ့ ပတ်သက်တဲ့ ကျင့်ဝတ်ပိုင်းဆိုင်ရာ အငြင်းပွားမှုတွေ၊ တင်းမာမှုတွေ ဖြစ်လာနိုင်တယ် ဆိုတာကို မကြာခင်က အမေရိကန် ကာကွယ်ရေး ဝန်ကြီးဌာနနဲ့ Anthropicတို့ကြားက ပြဿနာက မီးမောင်းထိုးပြနေပါတယ်။ Anthropicက Claudeကို စစ်ဘက် အသုံးပြုမှုအတွက် ထောက်ပံ့ထားတာဟာ ထောက်လှမ်းရေး အချက်အလက်တွေ စုဆောင်းဖို့၊ စစ်ဆင်ရေး အစီအမံတွေ ရေးဆွဲဖို့နဲ့ ဆိုက်ဘာ စစ်ဆင်ရေး ကဏ္ဍတွေ အတွက်ပါ။ ဒါပေမဲ့ စစ်လက်နက်တွေမှာ AIကိုပဲ အပြည့်အဝ ဆုံးဖြတ်ပိုင်ခွင့် ပေးတာမျိုးနဲ့ ထောက်လှမ်းရေး အချက်အလက်တွေ အလုံးအရင်း စုဆောင်းဖို့ အသုံးပြုတာမျိုးကိုတော့ ကုမ္ပဏီက ခွင့်မပြုနိုင်ကြောင်း အခိုင်အမာ ရပ်တည်နေပါတယ်။
နောက်တော့ အမေရိကန် ကာကွယ်ရေး ဝန်ကြီးဌာနက Claude AIကို တရားဝင် ခွင့်ပြုထားတဲ့ စစ်ရေးရည်ရွယ်ချက် အားလုံးမှာ အကန့်အသတ်မရှိ အသုံးပြုခွင့်ပေးဖို့ ကုမ္ပဏီကို ဖိအားပေးလာခဲ့ပါတယ်။ Anthropicရဲ့ အမှုဆောင်ချုပ် ဒါရီယို အမိုဒေးကတော့ မကျော်ရမယ့် စည်းတွေဆိုတာ ရှိတယ်လို့ ပြောကြားခဲ့ပြီး ကာကွယ်ရေး ဝန်ကြီးဌာနရဲ့ တောင်းဆိုမှုကို ငြင်းခဲ့ပါတယ်။ အဲဒီတင်းမာမှုတွေကို အကြောင်းပြုပြီး ကာကွယ်ရေး ဝန်ကြီးဌာနက Anthropicကို အမျိုးသား လုံခြုံရေးဆိုင်ရာ ခြိမ်းခြောက်မှု တစ်ခုအဖြစ် စွပ်စွဲခဲ့ပါတယ်။ ကုမ္ပဏီကလည်း အဲဒီ တံဆိပ်ကပ်မှုကို မကျေနပ်တဲ့အတွက် တရားရေးအရ တုံ့ပြန် တိုက်ပွဲဝင်ဖို့ ရွေးချယ်ခဲ့ပါတယ်။
အမေရိကန် စစ်ရေးဗဟို ကွပ်ကဲမှုဌာန (CENTCOM)ရဲ့ အကြီးအကဲဖြစ်သူ သေနာပတိ ဘရက်ဒ် ကူးပါးကတော့ AIဟာ စစ်ရေးအတွက် လိုအပ်တဲ့ ထောက်လှမ်းရေး အချက်အလက်တွေ အများအပြားကို အချိန်တိုအတွင်း မြန်မြန်ဆန်ဆန် ကိုင်တွယ် စီမံပေးနိုင်တယ်လို့ အသိအမှတ် ပြုခဲ့ပါတယ်။ ဒါပေမဲ့ စစ်ရေးဆိုင်ရာ နောက်ဆုံး ဆုံးဖြတ်ချက်တွေမှာ လူသားတွေရဲ့ သိစိတ်ကို အခြေခံတဲ့ ရွေးချယ်မှုတွေ လိုအပ်နေဆဲလို့ သူလည်း ယုံကြည်လက်ခံထားကြောင်း ကူးပါးက ဆိုပါတယ်။
စိုးရိမ်မှုတွေ ရှိနေတဲ့ အမေရိကန် လွှတ်တော် အမတ်တွေကတော့ AIရဲ့ အားသာချက်မှာ အချက်အလက် ကိုင်တွယ် တွက်ချက်မှုတွေ အရမ်းမြန်ဆန်တယ်ဆိုတဲ့ တန်ဖိုးကို လက်ခံပေမယ့် ဒီထက်ပိုပြီး တိကျတဲ့ ကြပ်မတ် ထိန်းကွပ်မှုတွေတော့ မဖြစ်မနေ ရှိနေဖို့လိုကြောင်း တောင်းဆိုထားပါတယ်။ အမေရိကန်က အီရန်စစ်ပွဲမှာ ပစ်မှတ်တွေကို AI အသုံးပြုပြီး ရွေးချယ် သတ်မှတ်ပေးတယ် ဆိုတာမျိုးက ဘယ်လို ပုံစံမျိုး အလုပ်လုပ်တာလဲ ဆိုတာတွေဟာ မဖြေရသေးတဲ့ မေးခွန်းတွေအဖြစ် ရှိနေဆဲလို့ အထက်လွှတ်တော် အမတ် တစ်ဦးဖြစ်တဲ့ မတ်ခ် ဝါနာက ထောက်ပြခဲ့ပါတယ်။
AIကုမ္ပဏီတွေ ကိုယ်တိုင်က သူတို့ရဲ့ စနစ်တွေဟာ ရာနှုန်းပြည့် မမှန်နိုင်ဘဲ အမှားအယွင်းတွေ ရှိနေနိုင်သေးတယ်လို့ ဝန်ခံထားချိန်မှာ ဘယ်ပစ်မှတ်ကိုတော့ ရွေးချယ်သင့်တယ် ဆိုတာမျိုး AIဆီက ထောက်ခံတင်ပြမှုကို ရာနှုန်းပြည့် ယုံစားလို့ရော ရနိုင်ပါ့မလား ဆိုတာက ခက်ခဲသိမ်မွေ့တဲ့ ကျင့်ဝတ်ပိုင်းဆိုင်ရာ မေးခွန်းတစ်ခု ဖြစ်ပါတယ်။ Anthropicရဲ့ အမှုဆောင်ချုပ် အမိုဒေးကတော့ ကမ္ဘာပေါ်မှာ ၁၀၀ ရာခိုင်နှုန်း ယုံကြည်ရတဲ့ AIဆိုတာ ဘယ်မှာမှ မရှိသေးဘူးလို့ ရှင်းရှင်းလင်းလင်း ပြောကြားထားပါတယ်။
AI နည်းပညာ လေ့လာစောင့်ကြည့်သူတွေကလည်း AIကြောင့် နေ့စဉ် လူနေမှုဘဝနဲ့ အလုပ်အကိုင်တွေမှာ ပိုပြီး လွယ်ကူတာတွေ ရှိလာရင်တောင် သေရေးရှင်ရေး အဆုံးအဖြတ်ပေးမယ့် ကိစ္စတွေမှာ မျက်စိစုံမှိတ် အားကိုးတာမျိုး လုံးဝ မလုပ်သင့်ဘူးလို့ အကြိမ်ကြိမ် သတိပေးထားကြပါတယ်။ ထောက်လှမ်းရေး အချက်အလက်တွေကို ဆန်းစစ်တွက်ချက်တဲ့အချိန် အရမ်းမြန်ဆန်လာတာကို မဟာဗျူဟာ အားသာချက် တစ်ခုလို့ ယူဆနိုင်ပေမယ့် တခြားတစ်ဖက်မှာတော့ AI မော်ဒယ် တစ်ခုစီရဲ့ မတိကျမှု၊ မှားယွင်းမှုကြောင့် လူ့အသက်တွေ ပြုန်းတီးကုန်နိုင်တာကို ဘယ်တော့မှ မမေ့ဖို့ လိုတယ်လို့ AI Now Instituteရဲ့ နည်းပညာ သုတေသီ ဟိုင်ဒီ ခါလက်ဖ်က ပြောကြားသွားပါတယ်။
အမေရိကန် လွှတ်တော် အမတ်တွေက AIဟာ တခြားနယ်ပယ်တွေမှာလိုပဲ စစ်ရေးကဏ္ဍမှာလည်း ပိုပြီး ထိရောက်တဲ့ အကူအညီတွေ ရစေနိုင်တယ် ဆိုတာကို လက်ခံထားကြပါတယ်။ ဒါပေမဲ့ လူ့အသက်တွေနဲ့ ယှဉ်လာတဲ့ ကိစ္စတွေမှာ AIကို အလွယ်တကူ၊ တာဝန်မဲ့ အသုံးချတာမျိုးတွေ ဖြစ်မလာအောင် စည်းမျဉ်းတွေ၊ ဥပဒေတွေ ကြပ်မတ်ပေးဖို့ကတော့ အထူးအရေးတကြီး လိုအပ်လာပြီလို့ သူတို့က ပြောပါတယ်။
AI ခေတ်မှာတော့ AI နည်းပညာ ပေါင်းစပ်ထားတယ်ဆိုတဲ့ ဝိသေသကိုက အထင်ကြီးစရာ၊ ပိုပြီး စမတ်ကျတယ်လို့ ယူဆချင်စရာ သတ်မှတ်ချက်မျိုး ဖြစ်လာနေပါတယ်။ ဒါပေမဲ့ ရခဲလှတဲ့ လူ့အသက်တွေကို စက္ကန့်ပိုင်းလေးအတွင်း သေခြင်း၊ ရှင်ခြင်းကို ဆုံးဖြတ်ပေးမယ့် စစ်မြေပြင်မှာတော့ AIကို ဘယ်လိုနည်းလမ်းနဲ့ အသုံးချမလဲ၊ ဘယ်လောက် အတိုင်းအတာထိပဲ အားကိုးမလဲဆိုတဲ့ တိကျတဲ့ စံနှုန်းသတ်မှတ်ချက်တွေ၊ ထိန်းကွပ်မှုတွေကတော့ အမှန်တကယ် လိုအပ်လာနေပြီ ဖြစ်ပါတယ်။
















































