(SeaPRwire) – บาร์นส์ เบธ และคนอีกสามคนในทีมของเธอนั่งก้มตัวเป็นวงกลมบนหญ้าบนพื้นที่มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ เธอกําลังอธิบายความพยายามของเธอในการสอบถามชัตบอต AI
“พวกเขาในบางความหมายเป็นปัญญาประดิษฐ์ขนาดใหญ่ที่แปลกประหลาด,” บาร์นส์ 26 ปีซึ่งเป็นผู้ก่อตั้งและซีอีโอของการประเมินโมเดลและการวิจัยภัยคุกคาม (METR) ซึ่งเป็นองค์กรด้านความปลอดภัย AI ที่ไม่แสวงหาผลกําไร กล่าว “พวกเขารู้มากเกี่ยวกับว่าคําว่า ‘เป็น’ หรือ ‘เคยเป็น’ จะเป็นคําถัดไป พวกเรากําลังเล่นกับส่วนเล็กๆบนผิวหน้า และมีอะไรอีกมากมายอยู่ลึกลงไป” เธอพูดพร้อมทั้งชี้ไปที่ความลึกลับที่อาจมีของโมเดลภาษาขนาดใหญ่ของความสามารถ
นักวิจัยของ METR ดูเหมือนนักศึกษามหาวิทยาลัยเบิร์กลีย์—สี่คนบนหญ้ามีอายุยี่สิบกว่าปีและแต่งกายด้วยกางเกงยีนส์หรือกางเกงยีม แต่แทนที่จะเข้าฟังบรรยายหรือทํางานกลางคืนในห้องสมุด พวกเขาใช้เวลาสํารวจระบบ AI ที่ทันสมัยและมีพลังที่สุดเพื่อพยายามตรวจสอบว่าถ้าถามอย่างถูกต้อง ระบบเหล่านั้นจะสามารถทําอะไรที่อันตรายได้หรือไม่
“มันก็รู้สึกเหมือนว่าเรากําลังพยายามเข้าใจประสบการณ์ของการเป็นโมเดลภาษาบางครั้ง” ดู เฮาเซียง นักวิจัยของ METR กล่าวถึงการวางตัวเป็นชัตบอต ซึ่งเธอและเพื่อนร่วมงานอ้างถึงด้วยความขบขันว่าเป็นจิตวิทยาของโมเดล
เมื่อความกังวลเกี่ยวกับอันตรายที่ระบบ AI ที่มีพลังในอนาคตอาจสร้างขึ้นได้มีมากขึ้น ผู้นําและผู้บริหารก็เริ่มรวมตัวกันในแผนที่ดูเหมือนง่ายตามหน้า คือทดสอบระบบ AI เพื่อดูว่ามันเป็นอันตรายจริงหรือไม่ แต่บาร์นส์พร้อมกับนักวิจัยด้านความปลอดภัย AI หลายคนกล่าวว่าแผนนี้อาจพึ่งพาการทดสอบความปลอดภัยที่ยังไม่มี
วิธีการทดสอบ AI
ในฤดูร้อนปี 2565 บาร์นส์ตัดสินใจออกจาก OpenAI ซึ่งเธอได้ทํางานวิจัยด้านความปลอดภัยและการคาดการณ์มา 3 ปี นี่เป็นส่วนหนึ่งเนื่องจากเธอคิดว่าควรมีองค์กรภายนอกที่พัฒนาการประเมิน AI เธอก็กล่าวว่าเธอเป็นพนักงาน OpenAI ที่เปิดเผยความคิดเห็นมากที่สุด และรู้สึกว่าตัวเองจะสะดวกและมีประสิทธิภาพมากขึ้นในการสนับสนุนมาตรการความปลอดภัยจากภายนอก
เธอก่อตั้ง METR เองในปีนั้น เดิมชื่อ ARC Evals ภายใต้การสนับสนุนขององค์กรวิจัยความปลอดภัย AI ชื่อ Alignment Research Center (ARC) แต่แยกออกเป็นอิสระในเดือนธันวาคม 2566 เพื่อกลายเป็น METR ปัจจุบันมีเจ้าหน้าที่รวม 20 คนรวมถึงบาร์นส์เอง
แม้ METR เป็นองค์กรเดียวที่ร่วมมือกับบริษัท AI ชั้นนํา แต่ก็มีนักวิจัยจากภาครัฐ เอกชน และองค์กรไม่แสวงหาผลกําไรที่ทํางานอยู่เพื่อพัฒนาการประเมินต่างๆ เช่น การทดสอบว่าระบบ AI สามารถช่วยในการดําเนินการโจมตีไซเบอร์หรือไม่ หรือปล่อยอาวุธชีวภาพ โดยเน้นเริ่มต้นที่การประเมินว่าระบบ AI สามารถทําการเพิ่มจํานวนตัวเองได้หรือไม่
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ
METR เน้นทดสอบด้านนี้เนื่องจากต้องการความเชี่ยวชาญน้อยกว่าด้านอื่นๆ เช่น ด้านความปลอดภัยชีวภาพ และเนื่องจาก METR กังวลเป็นอย่างมากถึงความเสียหายที่ระบบ AI อาจก่อได้หากสามารถดําเ