Meta人工智能总监理Yann LeCun论AGI、开源和人工智能风险

(SeaPRwire) –   นักวิทยาศาสตร์หัวหน้าด้านเอไอของ Meta ได้รับเกียรติบัตรอีกหนึ่งรางวัลเพิ่มเติมในวันอาทิตย์ที่ผ่านมา เมื่อเขาได้รับรางวัล TIME100 Impact Award สําหรับความสําคัญของเขาต่อโลกของปัญญาประดิษฐ์

ก่อนพิธีมอบรางวัลในดูไบ เลอกุนได้นั่งคุยกับ TIME เพื่อพูดคุยเกี่ยวกับอุปสรรคในการบรรลุ “ปัญญาประดิษฐ์ทั่วไป” (AGI) ความสําคัญของการเปิดแหล่งของ Meta และสิ่งที่เขาเห็นว่าเป็นการอ้างที่ “เป็นเรื่องตลก” ว่าปัญญาประดิษฐ์อาจจะก่อให้เกิดความเสี่ยงต่อมนุษยชาติ

TIME พูดคุยกับเลอกุนเมื่อวันที่ 26 มกราคม การสนทนานี้ถูกตัดทอนและแก้ไขเพื่อให้ชัดเจนขึ้น

หลายคนในโลกเทคโนโลยีวันนี้เชื่อว่าการฝึกโมเดลภาษาขนาดใหญ่บนพลังคอมพิวเตอร์และข้อมูลมากขึ้นจะนําไปสู่ปัญญาประดิษฐ์ทั่วไป คุณเห็นด้วยหรือไม่?

เป็นเรื่องน่าอัศจรรย์ว่ามันทํางานอย่างไรถ้าฝึกที่มีขนาดใหญ่ แต่มันก็มีข้อจํากัดอย่างมาก พวกเราเห็นว่าระบบเหล่านี้สร้างภาพลวงตา มันไม่ได้เข้าใจโลกจริง มันต้องการข้อมูลจํานวนมหาศาลเพื่อให้ถึงระดับปัญญาที่ไม่สูงนัก และมันไม่สามารถคิดเหตุผลได้ มันสามารถวางแผนเพียงแค่สิ่งที่ฝึกมาเท่านั้น ดังนั้นมันจึงไม่ใช่ทางที่จะนําไปสู่สิ่งที่เรียกว่า “AGI”

คุณกล่าวว่าเกลียดตัวย่อ “AGI” นี้เป็นคําศัพท์ที่มาร์ก ซักเกอร์เบิร์กใช้ในเดือนมกราคม เมื่อประกาศว่า Meta จะเปลี่ยนเป้าหมายไปสู่การสร้างปัญญาประดิษฐ์ทั่วไปเป็นเป้าหมายหลักขององค์กร

มีความเข้าใจผิดอยู่มาก ดังนั้นเป้าหมายของ FAIR คือปัญญาประดิษฐ์ระดับมนุษย์ ฉันเคยแพ้การต่อสู้นี้แล้ว แต่ฉันไม่ชอบเรียกว่า AGI เพราะปัญญามนุษย์ไม่ได้เป็นทั่วไปเลย ระบบ AI ปัจจุบันไม่มีลักษณะที่มีปัญญาอย่างมนุษย์ เช่น เข้าใจโลกกายภาพ วางแผนลําดับขั้นตอนเพื่อบรรลุเป้าหมาย คิดเหตุผลอย่างที่ต้องใช้เวลา

ในบางทางมาตรฐานนั้นมีความหมาย เพราะแมวสามารถมองออกไปในโลกและเรียนรู้สิ่งต่างๆ ที่โมเดลภาษาขนาดใหญ่ระดับสูงปัจจุบันไม่สามารถ แต่ประวัติศาสตร์ความรู้ทั้งหมดของมนุษย์ไม่สามารถเข้าถึงได้สําหรับแมว

แต่สิ่งที่คุณพูดผิด ความรู้ส่วนใหญ่ของมนุษย์ไม่ได้อยู่ในรูปแบบของข้อความ มันอยู่ในส่วนประสาทส่วนลึกของจิตใจที่เราเรียนรู้ในปีแรกของชีวิตก่อนที่จะพูดได้ ความรู้ส่วนใหญ่จริงๆ เกี่ยวกับประสบการณ์ของโลกว่ามันทํางานอย่างไร นั่นคือ common sense ซึ่ง LLMs ไม่มี

หนึ่งวิจารณ์ที่พบบ่อยคือการเปิดแหล่งจะทําให้เครื่องมือที่มีพลังมากตกอยู่ในมือของผู้ที่อาจจะใช้ผิด และถ้ามีความไม่สมดุลระหว่างพลังของการโจมตีกับการป้องกัน นั่นจะเป็นอันตรายต่อสังคมอย่างมาก ทําไมคุณจึงแน่ใจว่าสถานการณ์เช่นนั้นจะไม่เกิดขึ้น?

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

มีสิ่งที่พูดเกี่ยวกับประเด็นนี้ที่เป็นเพียงแค่จินตนาการสมบูรณ์แบบ มีรายงานวิจัยจาก RAND Corporation ที่ศึกษาว่าระบบปัจจุบันทําให้ง่ายขึ้นสําหรับคนที่มีเจตนาร้ายในการสร้างสูตรยาพิษชีวภาพเพียงใด และคําตอบคือไม