ทําไมผู้ประท้วงทั่วโลกต้องการหยุดพักการพัฒนา AI

Pause AI protest in London

(SeaPRwire) –   สัปดาห์ที่แล้วก่อนงานประชุมโลกของผู้ประท้วงของขบวนการที่เรียกว่า “Pause AI” ได้ร้องขอให้รัฐบาลของโลกควบคุมบริษัท AI และหยุดการพัฒนาระบบ AI ขั้นสูงรุ่นใหม่ ๆ ไว้ก่อน พวกเขากล่าวว่าการพัฒนาระบบเหล่านี้ควรได้รับอนุญาตให้ดําเนินต่อไปเท่านั้นหากบริษัทตกลงให้มีการตรวจสอบได้ มีการประท้วงใน 13 ประเทศรวมถึงสหรัฐอเมริกา สหราชอาณาจักร เบราซิล เยอรมนี ออสเตรเลีย และนอร์เวย์ ในวันจันทร์ที่ผ่านมา

ในลอนดอน กลุ่มผู้ประท้วงประมาณ 20 คนยืนอยู่หน้ากระทรวงวิทยาศาสตร์ นวัตกรรม และเทคโนโลยีของสหราชอาณาจักรร้องเพลงเช่น “หยุดการแข่งขัน ไม่ปลอดภัย” และ “อนาคตของใคร อนาคตของเรา” เพื่อดึงดูดความสนใจของผู้กําหนดนโยบาย ผู้ประท้วงกล่าวว่าเป้าหมายของพวกเขาคือให้รัฐบาลควบคุมบริษัทที่พัฒนาแบบ AI ขั้นสูงรวมถึง Chat GPT ของ OpenAI และพวกเขากล่าวว่าบริษัทไม่ได้รับมาตรการคุ้มครองเพียงพอเพื่อให้แน่ใจว่าระบบ AI ของพวกเขาปลอดภัยพอที่จะปล่อยออกไปในโลก

“[บริษัท AI] ได้พิสูจน์แล้วว่า… ด้วยวิธีการที่พวกเขาปฏิบัติต่อพนักงาน ด้วยวิธีการที่พวกเขาใช้งานของคนอื่นโดยการขโมยและโยนเข้าไปในแบบจําลองของพวกเขา พวกเขาได้พิสูจน์แล้วว่าพวกเขาไม่สามารถเชื่อถือได้” กิดีออน ฟูเทอร์แมน นักศึกษาปีสองจากมหาวิทยาลัยออกซฟอร์ดที่ให้สุนทรพจน์ในการประท้วง

ผู้ประท้วงคนหนึ่งชื่อว่า ทารา สตีล นักเขียนอิสระที่ทํางานเขียนบล็อกและเนื้อหา SEO กล่าวว่าเธอเห็นเทคโนโลยีนี้มีผลกระทบต่ออาชีพของเธอ “ฉันเห็นว่าตั้งแต่ ChatGPT ออกมา ความต้องการงานฟรีแลนซ์ลดลงอย่างมาก” เธอกล่าว “ฉันรักการเขียนจริงๆ… และมันเป็นเรื่องที่เศร้าใจทางอารมณ์”

เธอกล่าวว่าเหตุผลหลักที่เธอประท้วงเพราะเธอกังวลว่าอาจมีผลกระทบอันตรายมากกว่านี้ที่เกิดจากแบบ AI ขั้นสูงในอนาคต “เรามีผู้เชี่ยวชาญที่มีคุณวุฒิสูง ผู้รับรางวัลทัวริง นักวิจัย AI ที่อ้างอิงมากที่สุด และซีอีโอของบริษัท AI เองก็กล่าวเตือนว่า AI อาจมีผลกระทบร้ายแรง”

เธอกังวลโดยเฉพาะอย่างยิ่งกับจํานวนผู้เชี่ยวชาญที่เตือนว่าการควบคุม AI อย่างไม่เหมาะสมอาจนําไปสู่ผลกระทบร้ายแรง “การเตือนเหล่านั้นไม่ได้ถูกส่งต่อไปยังประชาชนทั่วไป และพวกเขาต้องรู้”

ในปัจจุบัน นักวิชาการด้านเทคโนโลยีเรียนรู้ของเครื่องมีความแตกต่างกันบ้างเกี่ยวกับความเสี่ยงจากการพัฒนาต่อไปของเทคโนโลยีปัญญาประดิษฐ์ สองบุคคลในสามคนที่เป็นบิดาของเทคโนโลยีเรียนรู้ลึก จีออฟฟรีย์ ฮินตัน และโยชูอา เบนจิโอ กล่าวว่าเชื่อว่ามีความเสี่ยงที่เทคโนโลยีนี้อาจนําไปสู่การสูญพันธุ์ของมนุษย์

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

บุคคลที่สามคือ ยาน เลอคุน ซึ่งเป็นหัวหน้านักวิทยาศาสตร์ AI ของเมตา กล่าวว่าไม่เห็นด้วยกับอีกสองคน เขากล่าวว่า “AI จะนํามาซึ่งประโยชน์มากมายต่อโลก แต่ผู้คนกําลังเอาความกลัวเกี่ยวกับเทคโนโลยีมาใช้ แล