“อันตรายเกินไปที่จะเผยแพร่” กลายเป็นเรื่องปกติใหม่ของ AI

แซม อัลต์แมน ซีอีโอของ OpenAI ให้การต่อหน้าคณะกรรมาธิการวุฒิสภาด้านพาณิชย์ วิทยาศาสตร์ และการขนาน เมื่อวันที่ 8 พฤษภาคม 2025 — Chip Somodevilla—Getty Images

(SeaPRwire) –   เมื่อวันที่ 16 เมษายน OpenAI ประกาศเปิดตัว GPT-Rosalind ซึ่งเป็นโมเดลปัญญาประดิษฐ์รุ่นใหม่ที่มุ่งเป้าไปที่วิทยาศาสตร์เพื่อชีวิต โดยโมเดลนี้มีประสิทธิภาพเหนือกว่าโมเดลที่เปิดให้สาธารณชนใช้อยู่ในปัจจุบันอย่างมาก ทั้งในงานด้านเคมี ชีววิทยา และการออกแบบการทดลอง เช่นเดียวกับ Claude Mythos ของ Anthropic และ GPT-5.4-Cyber ของ OpenAI ที่เปิดตัวในเดือนนี้เช่นกัน โมเดลดังกล่าวไม่เปิดให้สาธารณชนทั่วไปใช้ — อย่างน้อยในขั้นต้นจะสงวนไว้สำหรับ “ลูกค้าที่มีคุณสมบัติตามเกณฑ์” ผ่าน “โปรแกรมการเข้าถึงที่เชื่อถือได้”

การเปิดตัวเหล่านี้เป็นสัญญาณของแนวโน้มใหม่ที่น่ากังวล โดยบริษัท AI ต่างมองว่าโมเดลที่มีความสามารถสูงสุดของพวกเขามีพลังมากเกินไปที่จะมอบหมายให้สาธารณชนทั่วไป “ผมคิดว่านักพัฒนาระดับแนวหน้าจำกัดการเข้าถึงโมเดลที่มีความสามารถสูงสุดของพวกเขาเพราะพวกเขากังวลอย่างจริงจังถึงความสามารถบางอย่างที่โมเดลเหล่านี้มี” ปีเตอร์ ไวล์เดอร์ฟอร์ด หัวหน้าฝ่ายนโยบายของ AI Policy Network กลุ่มสนับสนุนนโยบาย กล่าว

ยังไม่เป็นที่ชัดเจนว่าทำไม OpenAI ถึงตัดสินใจจำกัดการเข้าถึง GPT-Rosalind เป็นพิเศษ โฆษกของ OpenAI กล่าวในอีเมลว่าการให้สิทธิ์การเข้าถึงแก่พันธมิตรที่เชื่อถือได้ทำให้บริษัทสามารถ “ทำให้ระบบที่มีความสามารถมากขึ้นพร้อมใช้งานเร็วขึ้นสำหรับผู้ใช้ที่ผ่านการยืนยัน ในขณะที่ยังคงจัดการความเสี่ยงอย่างรอบคอบ”

ใครเป็นผู้ตัดสินใจ?

ความก้าวหน้าอย่างรวดเร็วของขีดความสามารถของ AI ทำให้เกิดคำถามว่าบริษัทเอกชนควรเป็นผู้ตัดสินใจที่มีน้ำหนักมากขึ้นเรื่อยๆ เกี่ยวกับการสร้างโมเดล AI ที่อาจเป็นอันตรายหรือไม่ และควรสร้างอย่างไร รวมถึงใครควรได้รับอนุญาตให้ใช้โมเดลเหล่านั้นหรือไม่ “ผมคิดว่ารัฐบาลกลางมีบทบาทที่ต้องทำ” ส.ส. มาร์ค เดอซอลนิเยร์ สมาชิกพรรคเดโมแครตจากรัฐแคลิฟอร์เนีย กล่าว

การเปิดตัว Mythos ของ Anthropic ดูเหมือนจะช่วย改善ความสัมพันธ์กับทำเนียบขาวซึ่งก่อนหน้านี้ตึงเครียด โดยทำเนียบขาวกล่าวเมื่อสัปดาห์ที่แล้วว่าพวกเขาจัดการประชุมที่ “เกิดผลและสร้างสรรค์” กับดาริโอ อาโมเดย์ ซีอีโอของ Anthropic แล้ว นอกจากนี้ยังมีรายงานว่าหน่วยงานความมั่นคงแห่งชาติ (NSA) เริ่มใช้ Claude Mythos แล้วด้วย เมื่อเดือนกุมภาพันธ์ ประธานาธิบดีทรัมป์เคยสั่งให้หน่วยงานของรัฐบาลกลางหยุดทำงานกับ “บริษัทหัวรุนแรงฝ่ายซ้ายที่ตื่นตัว” หลังเกิดข้อพิพาทสัญญากับกระทรวงกลาโหม

ข้อจำกัดการเข้าถึงโมเดลชุดล่าสุดนี้เป็นไปโดยสมัครใจจากฝ่าย Anthropic และ OpenAI แต่เมื่อความเสี่ยงที่เกิดจากโมเดล AI รุนแรงและซับซ้อนมากขึ้น บางฝ่ายก็เรียกร้องให้มีการกำกับดูแลจากภายนอกที่เข้มงวดขึ้น

“เราไม่อนุญาตให้บริษัทต่างๆ ตัดสินใจได้ว่าพวกเขาสามารถปล่อยสารพิษลงในน้ำดื่มของลูกฉันได้มากแค่ไหน — นี่เป็นหน้าที่ของรัฐบาลที่จะตัดสินใจ” คอนเนอร์ ลีฮี ผู้อำนวยการสหรัฐฯ ของ ControlAI กลุ่มสนับสนุนการกำกับดูแล AI กล่าว “เราจะถกเถียงกันได้ว่ารัฐบาลทำได้แย่หรือดี แต่หัวใจคือเรื่องการแบ่งแยกอำนาจ”

‘การวิจัยทางวิทยาศาสตร์กับการสร้างอาวุธชีวภาพดูคล้ายกันมาก’

ขีดความสามารถแบบใช้ได้สองทาง (dual-use) เช่น การวิจัยด้านชีวภาพและความปลอดภัยทางไซเบอร์ สร้างความท้าทายให้กับบริษัท AI เครื่องมือเดียวกันที่ช่วยให้นักวิจัยด้านความปลอดภัยไซเบอร์ค้นหาและแก้ไขช่องโหว่ในซอฟต์แวร์ ก็สามารถช่วยผู้โจมตีได้เช่นกัน AI ที่ช่วยในการศึกษาไวรัส ก็อาจช่วยให้ผู้ก่อการร้ายทางชีวภาพออกแบบสายพันธุ์ที่ร้ายแรงกว่าเดิมได้ โดยสมมติฐาน “การป้องกันทางไซเบอร์กับการโจมตีทางไซเบอร์ดูคล้ายกันมาก” ไวล์เดอร์ฟอร์ดกล่าว “การวิจัยทางวิทยาศาสตร์กับการสร้างอาวุธชีวภาพดูคล้ายกันมาก”

ในอดีต บริษัทต่างๆ เลือกที่จะจำกัดความสามารถเหล่านี้สำหรับทุกคน ตัวอย่างเช่น แชทบอตหลายตัวปฏิเสธคำถามเกี่ยวกับการกลายพันธุ์ของโควิดแบบใดที่ทำให้ไวรัสแพร่เชื้อได้มากขึ้น แม้ว่าสิ่งนี้จะไม่สร้างปัญหาให้กับผู้ใช้ทั่วไป แต่มันเป็นความท้าทายสำหรับนักวิจัย “มันน่าหงุดหงิด” เจมส์ ดิกแกนส์ รองประธานฝ่ายนโยบายและความปลอดภัยทางชีวภาพของ Twist Bioscience บริษัทสังเคราะห์ DNA กล่าว “แต่ผมคิดว่ามันเป็นสิ่งที่ถูกต้องที่ควรทำ”

การเปิดตัวโมเดลล่าสุดคลายข้อจำกัดบางประการเหล่านี้สำหรับฝ่ายที่เชื่อถือได้ OpenAI กล่าวว่าพวกเขาให้สิทธิ์การเข้าถึง GPT-Rosalind เฉพาะกับองค์กรที่มี “การควบคุมภายในที่แข็งแกร่ง” ซึ่งรับประกันว่าโมเดลจะไม่ถูกใช้ในทางที่ผิด Anthropic ได้ร่วมมือกับหน่วยงานรัฐบาลสหรัฐฯ และบริษัทเอกชนที่ใช้ Mythos ในการค้นหาและแก้ไขช่องโหว่ความปลอดภัยทางไซเบอร์ อย่างไรก็ตาม บาทาลิสกล่าวว่าการนิยามนักวิจัยที่ “ชอบด้วยกฎหมาย” นั้นทำได้ยากกว่าในสถาบันนอกสหรัฐฯ ซึ่งทำให้เกิดข้อกังวลเรื่องความเท่าเทียมสำหรับนักวิจัยระหว่างประเทศ

การตัดสินใจว่าโมเดลใดควรถูกจำกัดการเข้าถึงเป็นการทรงตัวบนเส้นด้ายที่ละเอียดอ่อนซึ่งแตกต่างกันไปตามโดเมน ดิกแกนส์กล่าวว่าการวัดว่าโมเดล AI สร้างภัยคุกคามทางไซเบอร์ที่อาจเกิดขึ้นหรือไม่นั้นทำได้ง่าย: “พวกมันสามารถเจาะระบบที่มีอยู่ได้หรือไม่” การวิจัยทางชีววิทยาเป็นกระบวนการหลายขั้นตอนที่ซับซ้อนกว่าและใช้เวลานานกว่าในการโจมตีทางไซเบอร์ จึงไม่ชัดเจนว่าความเสียหายจะเกิดขึ้นจากโมเดลอย่าง GPT-Rosalind หรือไม่ หากมันถูกปล่อยออกสู่สาธารณะ “เรารู้ว่าผู้คนต้องการ และได้กระทำการโจมตีทางไซเบอร์” บาทาลิสกล่าว “เราแค่ไม่มีตัวอย่างในขนาดเดียวกันกับความเสี่ยงทางชีวภาพ” โดเมนอื่นๆ อาจกลายเป็นที่ถกเถียงมากขึ้นเมื่อขีดความสามารถของ AI ก้าวหน้าต่อไป แคมเปญการสื่อสารอาจถูกมองว่าเป็นการดำเนินการโฆษณาชวนเชื่อหากตกไปอยู่ในมือที่ผิด

‘ขีดความสามารถทางไซเบอร์กำลังจะแพร่กระจาย’

โมเดลโอเพ่นซอร์ส ซึ่งสามารถดาวน์โหลดและรันได้ฟรี อาจเปลี่ยนการคำนวณเกี่ยวกับข้อจำกัดของโมเดล AI ตามข้อมูลจาก Epoch AI สถาบันวิจัยที่ศึกษาความก้าวหน้าของ AI ขีดความสามารถของโมเดลโอเพ่นซอร์สโดยทั่วไปล้าหลังโมเดลที่เป็นกรรมสิทธิ์สามถึงเจ็ดเดือน ซึ่งหมายความว่าหากแนวโน้มยังคงเป็นเช่นนี้ โมเดล AI ที่มีขีดความสามารถในระดับ GPT-Rosalind และ Mythos อาจเปิดให้สาธารณชนใช้ได้ภายในสิ้นปีนี้ “ขีดความสามารถทางไซเบอร์กำลังจะแพร่กระจาย” โฆษกของ OpenAI กล่าว “ผู้ป้องกันต้องการเครื่องมือที่ดีขึ้นแต่เนิ่นๆ ไม่ใช่ในภายหลัง”

โมเดลโอเพ่นซอร์สอาจเป็นประโยชน์ต่อผู้โจมตีทางไซเบอร์ระหว่างประเทศ ในเดือนพฤศจิกายน Anthropic ประกาศว่าพวกเขาขัดขวางกลุ่มที่ได้รับการสนับสนุนจากรัฐจีนซึ่งกำลังใช้โมเดลที่มีระบบจ่ายเงินของบริษัท ด้วยการปิดกั้นการเข้าถึง AI ของพวกเขา หากมีโมเดลที่มีความสามารถใกล้เคียงกันปรากฏให้ใช้ฟรีบนเว็บเปิด สิ่งนี้จะลดอิทธิพลของบริษัทตะวันตก

อย่างไรก็ตาม นักพัฒนาโอเพ่นซอร์สบางส่วนเคยพึ่งพาเอาต์พุตจากระบบที่เป็นกรรมสิทธิ์ชั้นนำเพื่อช่วยฝึกโมเดลของพวกตัวเอง ข้อจำกัดการเข้าถึงโมเดชั่นล่าสุดอาจชะลอหรือหยุดการแพร่กระจายของขีดความสามารถที่ล้ำสมัยที่สุดไปยังโมเดลโอเพ่นซอร์ส — ตราบใดที่บริษัทต่างๆ สามารถบังคับใช้ข้อจำกัดได้ (มีรายงานว่าผู้ใช้ที่ไม่ได้รับอนุญาตบางส่วนสามารถเข้าถึง Claude Mythos ได้สำเร็จแล้ว)

ไม่ว่าโมเดลโอเพ่นซอร์สจะตามทันโมเดลที่เป็นกรรมสิทธิ์ชั้นนำหรือไม่ก็ตาม Mythos และ GPT-Rosalind คือพื้นใหม่ของขีดความสามารถ AI แนวหน้า — และโอกาสและความเสี่ยงที่เพิ่มขึ้นจาก AI ไม่แสดงสัญญาณว่าจะชะลอตัวลง “ผมคิดว่ารัฐบาลมีผลประโยชน์อย่างมากในการจัดการเรื่องนั้น” ไวล์เดอร์ฟอร์ดกล่าว “ผมไม่รู้จริงๆ ว่าคุณจะหลีกเลี่ยงความจำเป็นในการแทรกแซงของรัฐบาลได้อย่างไร”

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ