(SeaPRwire) – OpenAI ប្រហែលជាបានละเมิดច្បាប់សុវត្ថិភាព AI ថ្មីរបស់រដ្ឋកាលីហ្វ័រញ៉ា ជាមួយនឹងការចេញផ្សាយម៉ូដែលកូដថ្មីរបស់ខ្លួន ដោយក្រុមឆ湿疣ត្រួតពិនិត្យ AI មួយ។
ការละเมิดប្រហែលជាអាចធ្វើឱ្យក្រុមហ៊ុនទទួលការពិន័យរាប់លានដុល្លារ ហើយករណីនេះអាចក្លាយជាការសាកល្បងដំបូងដែលបង្កើតគំរូសម្រាប់ផ្នែកនៃច្បាប់ថ្មី។
អ្នកនិយាយតំណាងរបស់ OpenAI បានបដិសេធទីតាំងរបស់ក្រុមឆ湿疣ត្រួតពិនិត្យ ដោយប្រាប់ ថាក្រុមហ៊ុន «មានទំនុកចិត្តថាយើងសម្របខ្លួននឹងច្បាប់សុវត្ថិភាពព្រីយាល័យ រួមទាំង SB 53 ផង»។
ភាពចម្រូងចម្រាសកណ្តាលកំពុងតែប្រព្រឹត្តលើ GPT-5.3-Codex ម៉ូដែលកូដថ្មីរបស់ OpenAI ដែលបានចេញផ្សាយកាលពីសប្តាហ៍មុន។ ម៉ូដែលនេះជាផ្នែកមួយនៃកិច្ចខិតខំប្រឹងប្រែងរបស់ OpenAI ដើម្បីស្តារក្បាលត្រឡប់មកវិញនៅក្នុងកូដដែលដើរការដោយ AI ហើយយោងតាមទិន្នន័យស្តង់ដារដែល OpenAI បានចេញផ្សាយ មានប្រសិទ្ធភាពខ្ពស់ជាងយ៉ាងខ្លាំងក្នុងកិច្ចការកូដជាងម៉ូដែលកំណត់កាលពីមុនរបស់ OpenAI និងក្រុមការប្រកួតដូចជា Anthropic ។ ទោះជាយ៉ាងណា ម៉ូដែលនេះក៏បានបង្កើតការព្រួយបារម្ភសុវត្ថិភាពស៊ីប៊ែរជាទីមួយផងដែរ។
CEO Sam Altman បាននិយាយថា ម៉ូដែលនេះស្ថិតក្នុងប្រភេទហានិភ័យសម្រាប់សុវត្ថិភាពស៊ីប៊ែរនៅលើក្របខ័ណ្ឌ Preparedness របស់ក្រុមហ៊ុន ដែលជាប្រព័ន្ធកំណត់ថ្នាក់ហានិភ័យផ្ទៃក្នុងដែល OpenAI ប្រើសម្រាប់ការចេញផ្សាយម៉ូដែល។ នេះមានន័យថា OpenAI កំពុងតែចាត់ថ្នាក់ម៉ូដែលនេះថាមានសមត្ថភាពកូដគ្រប់គ្រាន់ដើម្បីអាចជួយបង្កើតគ្រោះថ្នាក់ស៊ីប៊ែរយ៉ាងច្រើន ជាពិសេសបើសកម្មភាពស្វ័យប្រវត្តិ ឬប្រើប្រាស់ក្នុងទំហំធំ។
ក្រុមឆ湿疣ត្រួតពិនិត្យ AI Midas Project កំពុងអះអាងថា OpenAI បានបរាជ័យក្នុងការលើកតម្កើងការកត់សម្គាល់សុវត្ថិភាពរបស់ខ្លួន—ដែលឥឡូវនេះមានសិទ្ធិច្បាប់នៅក្រោមច្បាប់រដ្ឋកាលីហ្វ័រញ៉ា—ជាមួយនឹងការចេញផ្សាយម៉ូដែលហានិភ័យខ្ពស់ថ្មី។
ដែលបានចូលជកែប្រកាន់នៅខែមករា តម្រូវឱ្យក្រុមហ៊ុន AI ធំៗបោះពុម្ពផ្សាយ និងលើកតម្កើងក្របខ័ណ្ឌសុវត្ថិភាពរបស់ខ្លួន ដោយព ayrıល់ពីរបៀបដែលពួកគេនឹងការពារហានិភ័យអាប់អាហ្វ—ដែលកំណត់ថាជារឿងកើតឡើងដែលបណ្តាលឱ្យមានមរណភាពច្រើនជាង 50 នាក់ ឬការខូចខាតទ្រព្យសម្បត្តិ $1 ពាន់លាន—ពីម៉ូដែលរបស់ពួកគេ។ វាក៏ហាមឃាត់ក្រុមហ៊ុនទាំងនេះមិនឱ្យនិយាយការកុហកអំពីការសម្របខ្លួនផងដែរ។
ការការពារបន្ថែមរបស់ OpenAI សម្រាប់ម៉ូដែលដែលមានហានិភ័យសុវត្ថិភាពស៊ីប៊ែរខ្ពស់ ដែលត្រូវបានរចនាឡើងដើម្បីការពារអោយ AI មិនធ្វើអំពើប្រឆាំង និងធ្វើអ្វីដូចជា ធ្វើអំពើក្លែងក្លាយ បំបិទការស្រាវជ្រាវសុវត្ថិភាព ឬលាក់សមត្ថភាពពិតរបស់ខ្លួន។ ទោះជាយ៉ាងណា ក្រុមហ៊ុនមិនបានអនុវត្តការការពារទាំងនេះមុនពេលចេញផ្សាយ GPT-5.3-Codex ទោះបីបានប្រកាសថាម៉ូដែលនេះ «ហានិភ័យខ្ពស់» ក៏ដោយ យោងតាម Midas Project ។
OpenAI និយាយថាការបកស្រាយរបស់ Midas Project អំពីពាក្យនៅក្នុងក្របខ័ណ្ឌ Preparedness របស់ខ្លួនគឺខុស ថ្វីត្បិតតែខ្លួនក៏បាននិយាយថាពាក្យនៅក្នុងក្របខ័ណ្ឌ «មិនច្បាស់» ហើយខ្លួនបានព្យាយាមបញ្ជាក់ចេតនាគោលដៅនៃពាក្យនៅក្នុងក្របខ័ណ្ឌនោះដោយសេចក្តីថ្លែងការណ៍មួយនៅក្នុងរបាយការណ៍សុវត្ថិភាពដែលក្រុមហ៊ុនបានចេញផ្សាយជាមួយ GPT-5.3-Codex ។ នៅក្នុងរបាយការណ៍សុវត្ថិភាពនោះ OpenAI បាននិយាយថា ការការពារបន្ថែមត្រូវការតែប៉ុណ្ណោះពេលដែលហានិភ័យស៊ីប៊ែរខ្ពស់កើតឡើង «រួមជាមួយ» ស្វ័យភាពរយៈពេលវែង—សមត្ថភាពដើម្បីដំណើរការដោយឯករាជ្យអស់រយៈពេលវែង។ ចាប់តាំងពីក្រុមហ៊ុនជឿថា GPT-5.3-Codex ខ្វះស្វ័យភាពនេះ ពួកគេនិយាយថាការការពារមិនចាំបាច់ឡើយ។
«GPT-5.3-Codex បានបញ្ចប់ដំណើរការតេស்ட និងគ្រប់គ្រងពេញលេញរបស់យើង ដូចដែលមានรายละเอียดនៅក្នុងកាតប្រព័ន្ធដែលបានចេញផ្សាយសម្រាប់សាធារណៈ ហើយមិនបានបង្ហាញសមត្ថភាពស្វ័យភាពរយៈពេលវែងផ្អែកលើការវាយតម្លៃជំនួស និងត្រូវបានបញ្ជាក់ដោយការសំចាត់របស់អ្នកជំនាញផ្ទៃក្នុង រួមទាំងក្រុមប្រឹក្សាសុវត្ថិភាពរបស់យើង» អ្នកនិយាយតំណាងបាននិយាយ។ ទោះជាយ៉ាងណា ក្រុមហ៊ុនក៏បាននិយាយថា ខ្លួនខ្វះវិធីច្បាស់ដើម្បីវាយតម្លៃស្វ័យភាពរយៈពេលវែងរបស់ម៉ូដែល ហើយដូច្នេះពឹងផ្អែកលើការតេស்ட ដែលខ្លួនជឿថាអាចដើរតួជាអនុកត្តិសម្រាប់មាត្រិកានេះ ខណៈពេលដែលខ្លួនកំពុងធ្វើការបង្កើតវិធីវាយតម្លៃល្អជាង។
ទោះជាយ៉ាងណា កertain ក្រុមអ្នកស្រាវជ្រាវសុវត្ថិភាពបានបដិសេធខ啶សំគាល់របស់ OpenAI ។ Nathan Calvin នាយកប្រតិបត្តិការការប្រតិបត្តិការរដ្ឋ និងមេធានុកិច្ចនៅ Encode បាននិយាយក្នុងប្រកាសនៅលើ : «ជាជាងសារភាពថាខ្លួនមិនបានធ្វើតាមផែនការរបស់ខ្លួន ឬធ្វើឱ្យវាឡើងសម័យមុនការចេញផ្សាយ វាហាក់ដូចជា OpenAI កំពុងនិយាយថាលក្ខណៈវិនិច្ឆ័យមិនច្បាស់។ ពីការអានឯកសារពាក់ព័ន្ធ… វាមិនមើលទៅមិនច្បាស់ដល់ខ្ញុំទេ»。
Midas Project ក៏អះអាងថា OpenAI មិនអាចបង្ហាញយ៉ាងច្បាស់ថាម៉ូដែលខ្វះស្វ័យភាពដែលត្រូវការសម្រាប់វិធានការបន្ថែមទេ ចាប់តាំងពីម៉ូដែលដែលមិនមានកម្រិតខ្ពស់ជាងរបស់ក្រុមហ៊ុនពីមុនបានឈានកំពូលតារាងលក្ខណៈស្តង់ដារសកលសម្រាប់ការបញ្ចប់កិច្ចការដោយស្វ័យភាពរួចហើយ។ ក្រុមនេះអះអាងថា ទោះបីច្បាប់មិនច្បាស់ក៏ដោយ OpenAI គួរតែបញ្ជាក់វាមុនពេលចេញផ្សាយម៉ូដែល។
Tyler Johnston ជាស្ថាបនិកនៃ Midas Project បានគេហទំព័រការละเมิดដែលអាចកើតឡើងថា «គួរឱ្យអាម៉ាស់ជាពិសេស ដោយសារ SB 53 បានកំណត់កម្រិតទាបបំផុត: ជាមូលដ្ឋានគ្រាន់តែអនុម័តផែនការសុវត្ថិភាពស្ម័គ្រចិត្តដែលអ្នកជ្រើសរើស ហើយប្រាប់ដោយស្មោះត្រង់អំពីវា ផ្លាស់ប្តូរវាបตามតម្រូវការ ប៉ុន្តែមិនឱ្យละเมิดឬកុហកអំពីវា»。
ប្រសិនបើការស៊ើបអង្កេតត្រូវបើកចំហ និងការចោទប្រកាន់ប្រាកដដោយសារការពិត SB 53 អនុញ្ញាតឱ្យមានការពិន័យដ៏ច្រើនសម្រាប់ការละเมิด ដែលអាចរហូតដល់រាប់លានដុល្លារ អាស្រ័យលើភាពធ្ងន់ធ្ងរ និងរយៈពេលនៃការមិនសម្របខ្លួន។ អ្នកតំណាងរបស់ការិយាល័យមេអេត្តorney ឯករដ្ឋកាលីហ្វ័រញ៉ា បានប្រាប់ ថាខេត្ត «មានកត្តីខិតខំប្រឹងប្រែងដើម្បីអនុវត្តច្បាប់របស់រដ្ឋរបស់យើង រួមទាំងក្រោយណ៍ដែលបានអនុម័តដើម្បីបង្កើនតម្លាភាព និងសុវត្ថិភាពក្នុងផ្នែក AI ដែលកំពុងកើតឡើង»。 ទោះជាយ៉ាងណា ពួកគេនិយាយថាខេត្តមិនអាចតម្លេកអត្ថបទអំពី ទោះបីជាការបញ្ជាក់ឬបដិសេធករណីសកល្បងដែលអាចកើតឡើងឬកំពុងដំណើរការក៏ដោយ។
Updated, Feb. 10: រឿងនេះបានធ្វើឱ្យប្រែទៅថ្មីដើម្បីផ្លាស់ប្តូរសេចក្តីថ្លែងការណ៍របស់ OpenAI ដែលថាខ្លួនជឿថា ខ្លួនសម្របខ្លួននឹងច្បាប់ AI របស់រដ្ឋកាលីហ្វ័រញ៉ា ទៅក្នុងផ្នែកខ្ពស់ជាងនៅក្នុងរឿង。 ចំណងជើងក៏បានផ្លាស់ប្តូរដើម្បីបង្ហាញយ៉ាងច្បាស់ថា OpenAI កំពុងបដិសេធសាកសពពីក្រុមឆ湿疣ត្រួតពិនិត្យ。 លើសពីនេះ រឿងនេះបានធ្វើឱ្យប្រែទៅថ្មីដើម្បីបញ្ជាក់ថាសេចក្តីថ្លែងការណ៍របស់ OpenAI នៅក្នុងរបាយការណ៍សុវត្ថិភាព GPT-5.3-Codex មានចេតនាដើម្បីបញ្ជាក់អត្ថប្រយោជន៍នៃភាសាដែលមិនច្បាស់នៅក្នុងក្របខ័ណ្ឌ Preparedness របស់ក្រុមហ៊ុន。
អត្ថបទនេះត្រូវបានផ្តល់ជូនដោយអ្នកផ្គត់ផ្គង់មាតិកាដែលទីបញ្ចូល។ SeaPRwire (https://www.seaprwire.com/) មិនមានការធានា ឬ បញ្ចេញកំណត់ណាមួយ។
ប្រភេទ: ព័ត៌មានប្រចាំថ្ងៃ, ព័ត៌មានសំខាន់
SeaPRwire ផ្តល់សេវាកម្មផ្សាយពាណិជ្ជកម្មសារព័ត៌មានសកលសម្រាប់ក្រុមហ៊ុន និងស្ថាប័ន ដែលមានការចូលដំណើរការនៅលើបណ្ដាញមេឌៀជាង 6,500 បណ្ដាញ ប័ណ្ណប្រតិភូ 86,000 និងអ្នកសារព័ត៌មានជាង 350 លាន។ SeaPRwire គាំទ្រការផ្សាយពាណិជ្ជកម្មជាសារព័ត៌មានជាភាសាអង់គ្លេស ជប៉ុន ហ្រ្វាំង គូរី ហ្វ្រេនច រ៉ុស អ៊ីនដូនេស៊ី ម៉ាឡេស៊ី វៀតណាម ចិន និងភាសាផ្សេងទៀត។