ผู้นำ AI หารือแนวทางส่งเสริมนวัตกรรมที่รับผิดชอบในงาน TIME100 Roundtable ที่ดาวอส

(SeaPRwire) –   ผู้นำจากภาคไอที วิทยาลัย และภาคอื่นๆ ได้รวมตัวกันเพื่อสำรวจวิธีการนำเอา AI ที่มีความรับผิดชอบไปใช้งานจริง รวมทั้งการรับประกันความปลอดภัยในขณะที่ส่งเสริมนวัตกรรม ณ การประชุมโต๊ะกลมที่จัดโดย TIME ที่ดาวออส ประเทศสวิตเซอร์แลนด์ เมื่อวันที่ 21 มกราคม

ในการสนทนาที่ครอบคลุมหลายหัวข้อ ผู้เข้าร่วมการประชุมโต๊ะกลม ซึ่งเป็นโฮสต์โดยเจส ซิบลีย์ (Jess Sibley) ประธานกรรมการบริหารของ TIME ได้พูดคุยถึงหัวข้อต่างๆ เช่น ผลกระทบของ AI ต่อพัฒนาการและความปลอดภัยของเด็ก การควบคุมเทคโนโลยีนี้ และวิธีการฝึกแบบจำลองให้ดีขึ้นเพื่อไม่ให้ทำร้ายมนุษย์

เมื่อพูดถึงความปลอดภัยของเด็ก จอเนθαν แฮดต์ (Jonathan Haidt) ผู้เชี่ยวชาญด้านความเป็นผู้นำทางจริยธรรมที่มหาวิทยาลัยนิวยอร์กสเทิร์น (NYU Stern) และผู้เขียนหนังสือ The Anxious Generation กล่าวว่าพ่อแม่ไม่ควรมุ่งเน้นไปที่การจำกัดการสัมผัสของเด็กอย่างสิ้นเชิง แต่ควรดูที่ความเรียบร้อยของพฤติกรรมที่พวกเขาสร้างขึ้น เขาแนะนำว่าเด็กไม่จำเป็นต้องมีสมาร์ทโฟนจนกว่าจะถึง “อย่างน้อยก็ระดับมัธยมศึกษา” และพวกเขาไม่จำเป็นต้องสัมผัสกับเทคโนโลยีนี้เพื่อเรียนรู้การใช้งานเมื่ออายุ 15 ปี “ปล่อยให้สมองพวกเขาพัฒนา ให้พวกเขามีฟังก์ชันการบริหารงาน (executive function) ก่อนค่อยปล่อยให้สัมผัส” 

โยชัว เบงโจ (Yoshua Bengio) ผู้สอนที่มหาวิทยาลัยมอนทรีออล (Université de Montreal) และผู้ก่อตั้ง LawZero กล่าวว่าการเข้าใจทางวิทยาศาสตร์เกี่ยวกับปัญหาที่เกิดจาก AI เป็นสิ่งจำเป็นในการแก้ไขปัญหา เขาระบุวิธีการลดความเสี่ยงสองประการ คือ ประการแรก การออกแบบ AI ที่มีการปกป้องในตัวเพื่อไม่ให้ทำร้ายพัฒนาการของเด็ก เบงโจ ซึ่งเป็นหนึ่งในผู้รู้จักกันว่าเป็น “พ่อค้าแห่ง AI” กล่าวว่าสิ่งนี้อาจเกิดขึ้นได้จากความต้องการของผู้ใช้ ประการที่สอง รัฐบาลควรมีส่วนร่วม โดยอาจนำระบบต่างๆ เช่น การบังคับให้ผู้พัฒนาและผู้ใช้งาน AI ซื้อประกันความรับผิดชอบ เพื่อควบคุมผู้พัฒนา AI อย่างอ้อม 

ในขณะที่การแข่งขันด้าน AI ระหว่างสหรัฐอเมริกาและจีนมักถูกยกขึ้นเป็นเหตุผลในการสนับสนุนการจำกัดกฎระเบียบและข้อ จำกัดกับ บริษัท AI ในสหรัฐ เบงโจโต้แย้งว่า “ที่จริงชาวจีนก็ไม่ต้องการให้เด็กๆ ของพวกเขาเข้าโดนปัญหา พวกเขาไม่ต้องการสร้าง AI ที่กลัวกลามโลก ไม่ต้องการให้ผู้คนใช้ AI ของพวกเขาในการสร้างอาวุธชีวภาพหรือโจมตีไซเบอร์บนดินแดนของพวกเขา ดังนั้น ทั้งสหรัฐและจีนจึงมีความสนใจในการประสานงานกันในเรื่องเหล่านี้ เมื่อพวกเขาสามารถมองเห็นข้ามการแข่งขัน” เบงโจกล่าวว่าความร่วมมือระหว่างประเทศเช่นนี้เคยเกิดขึ้นมาก่อน เช่น เมื่อสหรัฐและสหภาพโซเวียตประสานงานกันในเรื่องอาวุธนิวเคลียร์ในช่วงสงครามเย็น 

ผู้เข้าร่วมการประชุมโต๊ะกลมยังพูดถึงความคล้ายคลึงระหว่าง AI และบริษัทโซเชียลมีเดีย โดยระบุว่า AI กำลังแข่งขันเพื่อแสวงหาความสนใจของผู้ใช้มากขึ้น “ความก้าวหน้าทั้งหมดในประวัติศาสตร์มีจุดมุ่งหมายในการดึงดูดด้านดีของธรรมชาติของมนุษย์” กล่าวบิล รีดี (Bill Ready) ประธานกรรมการบริหารของ Pinterest ซึ่งเป็นผู้สนับสนุนกิจกรรม “ตอนนี้เรามีหนึ่งในรูปแบบธุรกิจที่ใหญ่ที่สุดในโลกซึ่งมีจุดมุ่งหมายหลักคือการดึงดูดความสนใจ ทำให้คนต่อสู้กันและสร้างความแตกแยก” 

รีดีเพิ่มเติมว่า “เรากำลังโจมตีด้านมืดของจิตวิญญาณมนุษย์ และไม่จำเป็นต้องเป็นแบบนี้เลย ดังนั้นเรากำลังพยายามพิสูจน์ว่ามันเป็นไปได้ที่จะทำสิ่งต่างๆ” เขากล่าวว่า ภายใต้การนำของเขา Pinterest ได้หยุดปรับให้เหมาะสมเพื่อเพิ่มเวลาที่ผู้ใช้ดูเนื้อหา และเริ่มปรับให้เหมาะสมเพื่อเพิ่มผลลัพธ์ รวมทั้งผลลัพธ์นอกแพลตฟอร์ม “ในระยะสั้น อันนี้อาจมีผลลัพธ์เชิงลบ แต่ถ้าดูในระยะยาว ผู้คนจะกลับมาชมบ่อยขึ้น” เขากล่าว

เบงโจเน้นถึงความสำคัญของการค้นหาวิธีการออกแบบ AI ที่จะ “ให้การรับประกันความปลอดภัย เมื่อระบบมีขนาดใหญ่ขึ้นและเรามีข้อมูลมากขึ้น” การกำหนดเงื่อนไขที่เพียงพอในการฝึกระบบ AI เพื่อให้ทำงานอย่างซื่อสัตย์อาจเป็นวิธีแก้ปัญหาเช่นกัน เบงโจกล่าว 

เยจิน ชอย (Yejin Choi) ผู้สอนวิทยาการคอมพิวเตอร์และสมาชิกพิเศษที่สถาบันปัญญาประดิษฐ์เชิงมนุษย์ (Institute for Human-Centered Artificial Intelligence: HAI) ที่มหาวิทยาลัยสแตนฟอร์ด เพิ่มเติมว่าแบบจำลอง AI ปัจจุบันถูกฝึก “ให้ทำผิด และโดยออกแบบแล้วมันจะไม่สอดคล้องกัน” เธอถามว่า “จะเป็นยังไงถ้ามีรูปแบบปัญญาอื่นที่เรียนรู้… คุณธรรม ค่านิยมมนุษย์ตั้งแต่ต้น แทนที่จะฝึกแบบจำลองภาษาขนาดใหญ่ (LLMs) ด้วยเนื้อหาทั้งหมดบนอินเทอร์เน็ต ซึ่งจริงๆ แล้วมีข้อมูลจากด้านที่เลวร้ายที่สุดของมนุษย์ และจากนั้นเราก็พยายามแก้ไขโดยทำ ‘การจับคู่ความสอดคล้อง’?” 

ในการตอบคำถามว่า AI สามารถทำให้มนุษย์ดีขึ้นได้หรือไม่ เคย ฟิร์ธ-บัตเตอร์ฟิลด์ (Kay Firth-Butterfield) ประธานกรรมการบริหารของ Good Tech Advisory ชี้ให้เห็นถึงวิธีที่เราสามารถทำให้ AI เป็นเครื่องมือที่ดีขึ้นสำหรับมนุษย์ รวมทั้งการสนทนากับผู้ที่ใช้งานจริง ไม่ว่าจะเป็นคนงานหรือพ่อแม่ “สิ่งที่เราต้องทำคือคิดจริงๆ ว่า: เราจะสร้างแคมเปญการรู้จัก AI ให้กับทุกคนได้อย่างไร และไม่ต้องพึ่งพาผู้ดำเนินงานองค์กร?” เธอกล่าว “เราต้องการการสนทนาดังกล่าว จากนั้นเราก็สามารถรับประกันได้ว่า AI จะผ่านการรับรอง” 

ผู้เข้าร่วมอื่นๆ ใน TIME100 Roundtable ได้แก่ แมท แมดริแกล (Matt Madrigal) CTO ของ Pinterest; แมทธิว พรินส์ (Matthew Prince) ประธานกรรมการบริหารของ Cloudflare; เจฟ ชูมาเชอร์ (Jeff Schumacher) ผู้นำด้านปัญญาประดิษฐ์สัญลักษณ์ประสาท (Neurosymbolic AI) ที่ EY-Parthenon; นาวริน่า สิงห์ (Navrina Singh) ประธานกรรมการบริหารของ Credo AI; และอเล็กซ่า วิกโนน (Alexa Vignone) ประธานกรรมการด้านเทคโนโลยี สื่อ โทรคมนาคม และบริการผู้บริโภคและธุรกิจที่ Salesforce ซึ่งมาร์ค เบนอฟ (Marc Benioff) ประธานกรรมการบริหารและเจ้าของ TIME เป็น CEO ของ Salesforce

TIME100 Roundtable: Ensuring AI For Good — Responsible Innovation at Scale มีการนำเสนอโดย Pinterest

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ