AI နည်းပညာရဲ့ ရှေ့ဆောင်တစ်ဦးဖြစ်တဲ့ OpenAI ဟာ၊ သူတို့ရဲ့ အဆင့်မြင့် AI မော်ဒယ်တွေကနေ ဖြစ်ပေါ်လာနိုင်တဲ့ အန္တရာယ်ကြီးမားတဲ့ ကိစ္စရပ်တွေကို ကြိုတင်ပြင်ဆင်ပြီး ခြေရာခံနိုင်ဖို့အတွက် သူတို့ရဲ့ Preparedness Framework (ကြိုတင်ပြင်ဆင်ရေးမူဘောင်) ကို အသစ်မွမ်းမံလိုက်ကြောင်း တရားဝင်ကြေညာလိုက်ပါတယ်။ ဒီ update ဟာ AI လုံခြုံရေးအတွက် ပိုမိုရှင်းလင်းတဲ့ စံနှုန်းတွေနဲ့ လုပ်ငန်းလမ်းညွှန်တွေကို ချမှတ်ပေးလိုက်တာဖြစ်ပေမဲ့၊ တစ်ဖက်မှာလည်း ပြိုင်ဆိုင်မှုတွေကြောင့် လုံခြုံရေးစံနှုန်းတွေကို လျှော့ချလိုက်တာလားဆိုတဲ့ မေးခွန်းထုတ်မှုတွေနဲ့ ရင်ဆိုင်နေရပါတယ်။

မူဘောင်သစ်ရဲ့ အဓိကအပြောင်းအလဲများ:

  • ရှင်းလင်းပြတ်သားသော အန္တရာယ်အမျိုးအစားများ: AI တစ်ခုရဲ့စွမ်းရည်က အန္တရာယ်ကြီးမားနိုင်ခြင်း ရှိ၊ မရှိကို တိတိကျကျတိုင်းတာနိုင်ဖို့အတွက် "High capability" (အဆင့်မြင့်စွမ်းရည်) နှင့် "Critical capability" (အလွန်အရေးကြီးသောအဆင့်စွမ်းရည်) ဆိုပြီး အဆင့်နှစ်ခုကို ရှင်းရှင်းလင်းလင်းခွဲခြားသတ်မှတ်လိုက်ပါတယ်။
  • Safety Advisory Group (SAG) ၏ အခန်းကဏ္ဍ: အန္တရာယ်ရှိတဲ့စွမ်းရည်တစ်ခုကို မလွှင့်တင်ခင်မှာ၊ လုံခြုံရေးအကာအကွယ်တွေက လုံလောက်မှုရှိ၊ မရှိကို ကုမ္ပဏီတွင်းက လုံခြုံရေးခေါင်းဆောင်တွေနဲ့ဖွဲ့စည်းထားတဲ့ SAG အဖွဲ့က သုံးသပ်ပြီး၊ OpenAI ရဲ့ ခေါင်းဆောင်ပိုင်းကို အကြံပြုချက်တွေပေးပို့သွားမှာဖြစ်ပါတယ်။
  • အလိုအလျောက်စစ်ဆေးမှုများကို ပိုမိုအားထားခြင်း: AI မော်ဒယ်တွေကို ပိုမိုမြန်ဆန်စွာထုတ်လုပ်နိုင်ဖို့အတွက်၊ လူသားတွေကစစ်ဆေးတဲ့ "deep dives" တွေအပြင်၊ အလိုအလျောက်စစ်ဆေးတဲ့ automated evaluation စနစ်တွေကိုပါ တိုးချဲ့အသုံးပြုသွားမှာဖြစ်ပါတယ်။
  • ပြိုင်ဘက်များအပေါ်မူတည်၍ လိုအပ်သလိုချိန်ညှိခြင်း: အကယ်၍ အခြားပြိုင်ဘက် AI ကုမ္ပဏီတစ်ခုက အန္တရာယ်များတဲ့ AI စနစ်တစ်ခုကို လုံလောက်တဲ့အကာအကွယ်မရှိဘဲ ထုတ်လုပ်ခဲ့မယ်ဆိုရင်၊ OpenAI ကလည်း သူတို့ရဲ့ လိုအပ်ချက်တွေကို "ချိန်ညှိ" (adjust) သွားနိုင်တယ်လို့ ထည့်သွင်းပြောဆိုထားပါတယ်။ ဒီအချက်ကတော့ AI လုံခြုံရေးအပေါ် အလေးထားသူတွေရဲ့ အပြင်းထန်ဆုံးဝေဖန်မှုကိုခံနေရပါတယ်။
  • Safeguards Reports များထုတ်ပြန်ခြင်း: AI တစ်ခုရဲ့စွမ်းရည်ကိုတိုင်းတာတဲ့ Capabilities Reports တွေအပြင်၊ အဲ့ဒီအန္တရာယ်တွေကိုလျှော့ချဖို့သုံးထားတဲ့ အကာအကွယ်တွေ (safeguards) က ဘယ်လောက်ထိရောက်မှုရှိလဲဆိုတာကို အသေးစိတ်ဖော်ပြမယ့် "Safeguards Reports" တွေကိုပါ ထုတ်ပြန်ပေးသွားမှာဖြစ်ပါတယ်။

ဝေဖန်မှုများနှင့် စိုးရိမ်ပူပန်မှုများ

ဒီမူဘောင်အသစ်မှာ၊ လူတွေကို သွေးဆောင်စည်းရုံးနိုင်စွမ်း (Persuasion risks) ရှိ၊ မရှိကို မော်ဒယ်မထုတ်ပြန်ခင် စမ်းသပ်စစ်ဆေးရမယ်ဆိုတဲ့အချက်ကို ဖယ်ရှားလိုက်တာကြောင့် ကျွမ်းကျင်သူတွေက စိုးရိမ်ပူပန်နေကြပါတယ်။ ဒါ့အပြင် ပြိုင်ဘက်တွေရဲ့လုပ်ဆောင်မှုအပေါ်မူတည်ပြီး ကိုယ့်ရဲ့လုံခြုံရေးစံနှုန်းတွေကို ချိန်ညှိမယ်ဆိုတဲ့အချက်က၊ AI လောကမှာ လုံခြုံရေးအပြိုင်အဆိုင်လျှော့ချတဲ့ (race to the bottom) အခြေအနေကို ဦးတည်သွားနိုင်တယ်လို့လည်း သုံးသပ်နေကြပါတယ်။

OpenAI ရဲ့ ဒီခြေလှမ်းဟာ AI လုံခြုံရေးကို ပိုမိုစနစ်တကျနဲ့ ပွင့်လင်းမြင်သာအောင်လုပ်ဆောင်လိုတဲ့ ရည်ရွယ်ချက်ကို ပြသနေသလို၊ တစ်ဖက်မှာလည်း ပြင်းထန်တဲ့ဈေးကွက်ပြိုင်ဆိုင်မှုကြားမှာ လုံခြုံရေးကို ဘယ်အတိုင်းအတာအထိ အလျှော့အတင်းလုပ်မလဲဆိုတဲ့ မေးခွန်းကိုလည်း မွေးဖွားပေးလိုက်တာပဲဖြစ်ပါတယ်။