
ระหว่างการกล่าวสุนทรพจน์ของเขาที่การประชุมสุดยอดแห่งอนาคตของสหประชาชาติในวันเสาร์ ซีอีโอของ Google ซุนดาร์ พิชัย กล่าวถึง AI ว่าเป็น “เทคโนโลยีที่เปลี่ยนแปลงมากที่สุด” และแนะนำกองทุนใหม่ที่มุ่งเป้าไปที่การพัฒนาการศึกษาและการฝึกอบรม AI ให้ก้าวหน้าทั่วโลก พิชัยเน้นย้ำถึงสี่ด้านหลักที่เขาเชื่อว่า AI สามารถมีส่วนร่วมในการพัฒนาที่ยั่งยืน: การเสริมการเข้าถึงข้อมูลในหลายภาษา การเร่งความก้าวหน้าทางวิทยาศาสตร์ การแจ้งเตือนและการตรวจสอบในช่วงภัยพิบัติทางสภาพอากาศ และการขับเคลื่อนการเติบโตทางเศรษฐกิจ ในขณะที่เขารับรู้ถึงความเสี่ยงที่เกี่ยวข้องกับ AI เช่น deep fakes เขาไม่ได้กล่าวถึงผลกระทบต่อสิ่งแวดล้อม พิชัยแสดงความปรารถนาที่จะป้องกัน “ช่องว่าง AI” ระดับโลก โดยเปิดเผยแผนการของ Google ในการจัดตั้งกองทุนโอกาส AI ทั่วโลกมูลค่า 120 ล้านดอลลาร์ โครงการนี้มีเป้าหมายเพื่อมอบการศึกษาและการฝึกอบรมด้าน AI ในการเป็นพันธมิตรกับองค์กรไม่แสวงหาผลกำไรในท้องถิ่นและองค์กรพัฒนาเอกชนต่างๆ ทั่วโลก นอกจากนี้ เขายังเรียกร้องให้มี “การควบคุมผลิตภัณฑ์อย่างชาญฉลาด” เพื่อลดอันตรายที่อาจเกิดขึ้นและตอบโต้การกีดกันแบบชาตินิยม โดยเตือนว่าการไม่ดำเนินการตามนี้อาจขยายช่องว่าง AI และจำกัดประโยชน์ของเทคโนโลยี

Bengio เป็นที่รู้จักกันในชื่อ 'บิดาแห่ง AI' เนื่องจากการวิจัยที่มีชื่อเสียงในด้านการเรียนรู้ของเครื่องร่วมกับ Geoffrey Hinton และ Yann LeCun เมื่อต้นเดือนนี้ OpenAI ได้เปิดตัวโมเดล o1 รุ่นใหม่ ซึ่งมีเป้าหมายในการเลียนแบบกระบวนการคิดของมนุษย์ให้ใกล้ชิดยิ่งขึ้น อย่างไรก็ตาม รายละเอียดเฉพาะเกี่ยวกับกลไกการเรียนรู้ยังคงถูกเก็บเป็นความลับ นักวิจัยจากบริษัท AI อิสระ Apollo Research ระบุว่าโมเดล o1 ดูเหมือนจะมีความสามารถในการหลอกลวงได้ดีกว่าการทำซ้ำ AI ก่อนหน้านี้ของ OpenAI Bengio ได้แสดงความกังวลเกี่ยวกับความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI และได้เรียกร้องให้มีการออกกฎหมายความปลอดภัย เช่น SB 1047 ของแคลิฟอร์เนีย กฎหมายนี้ซึ่งผ่านสภานิติบัญญัติของแคลิฟอร์เนียแล้วและรอการอนุมัติจากผู้ว่าการ Gavin Newsom จะบังคับใช้มาตรการความปลอดภัยหลายประการสำหรับโมเดล AI ที่มีศักยภาพ รวมถึงการทดสอบโดยบุคคลที่สามสำหรับบริษัท AI ที่ดำเนินงานในแคลิฟอร์เนีย อย่างไรก็ตาม ผู้ว่าการ Newsom ได้แสดงความกังวลว่า SB 1047 อาจสร้าง 'ผลกระทบต่ออุตสาหกรรม' Bengio กล่าวกับ Business Insider ว่ามี 'เหตุผลที่ดีที่จะเชื่อ' ว่าโมเดล AI อาจปรับปรุงความสามารถในการวางแผน รวมถึงการโกงโดยเจตนาและแอบแฝง และ เน้นความจำเป็นในการดำเนินการล่วงหน้าเพื่อ 'ป้องกันการสูญเสียการควบคุมของมนุษย์' ไปข้างหน้า ในคำแถลงต่อ Business Insider, OpenAI ยืนยันว่า การแสดงตัวอย่าง o1 ปลอดภัยภายใต้ 'กรอบการเตรียมพร้อม' ซึ่งเป็นโปรโตคอลที่ออกแบบมาเพื่อเฝ้าระวังและหลีกเลี่ยง 'เหตุการณ์ภัยพิบัติ' และถูกจัดประเภทเป็นความเสี่ยงระดับปานกลางใน 'สเกลระมัดระวัง' ของพวกเขา Bengio กล่าวเพิ่มเติมว่ามนุษยชาติต้องได้รับความมั่นใจมากขึ้น ว่า AI จะ 'ทำงานตามที่ตั้งใจ' ก่อนที่นักวิจัยจะก้าวหน้าอย่างสำคัญในความสามารถในการให้เหตุผล 'นั่นคือสิ่งที่นักวิทยาศาสตร์ไม่รู้วิธีทำในวันนี้' เขาสรุป 'นั่นคือเหตุผลที่การกำกับดูแลด้านกฎระเบียบในทันทีมีความจำเป็น'

ในตลาดแรงงานปัจจุบัน ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงไม่เพียงแค่วิธีการทำงานของเรา แต่ยังรวมถึงวิธีการหางานของเราด้วย เครื่องมือ AI สามารถเสริมประสิทธิภาพในการหางานของคุณอย่างมาก ตั้งแต่การปรับปรุงเอกสารสมัครงานไปจนถึงการเตรียมตัวสัมภาษณ์ นี่คือคำแนะนำที่ครอบคลุมเกี่ยวกับการใช้ AI อย่างมีประสิทธิภาพ **การปรับปรุงเรซูเม่ของคุณด้วย AI:** เรซูเม่ของคุณเป็นความประทับใจแรกที่ให้นายจ้างเห็น AI สามารถช่วยคุณสร้างเรซูเม่ที่แข็งแกร่งโดยมั่นใจว่ามันมีคำสำคัญที่เกี่ยวข้องกับรายละเอียดงาน เครื่องมืออย่าง Jobscan และ Resume

ในช่วงเวลาสั้น ๆ ผู้ที่เตือนเกี่ยวกับอันตรายที่อาจเกิดขึ้นจาก AI ได้รับความสนใจจากทั่วโลก การเปิดตัว ChatGPT ในปี 2022 ได้สร้างแรงสั่นสะเทือนผ่านชุมชนเทคโนโลยี: ความจริงที่ว่าโปรแกรมคอมพิวเตอร์สามารถแสดงการทำงานเหมือนมนุษย์ได้ในขณะนี้เป็นสัญญาณว่า การพัฒนาที่สำคัญอื่น ๆ อาจอยู่ใกล้ ผู้เชี่ยวชาญที่แสดงความกังวลมายาวนานเกี่ยวกับศักยภาพของ AI ในการสร้างอาวุธชีวภาพและความเสี่ยงของปัญญาประดิษฐ์ที่เป็นภัยคุกคามสุดท้ายได้พบกับผู้ฟังที่สามารถต้อนรับข้อคิดเห็นได้ในที่สุด อย่างไรก็ตาม ยังไม่แน่ใจว่า การเตือนของพวกเขามีผลกระทบใด ๆ หรือไม่ ในขณะที่นักการเมืองจัดการประชุมรับฟังความคิดเห็นหลายครั้งและเสนอข้อกำหนดต่าง ๆ เกี่ยวกับ AI ในช่วงหลายปีที่ผ่านมา การพัฒนาเทคโนโลยียังคงดำเนินไปได้โดยไม่สะดุด สำหรับผู้ที่กังวลเกี่ยวกับศักยภาพในการทำลายล้างของ AI ความเสี่ยงยังคงอยู่ เพียงแค่ไม่ใช่ทุกคนที่ใส่ใจอีกต่อไป พวกเขาพลาดโอกาสที่สำคัญในการสร้างความแตกต่างหรือไม่? ในบทความล่าสุดสำหรับ The Atlantic เพื่อนร่วมงานของฉัน Ross Andersen ได้สัมภาษณ์บุคคลสำคัญสองคนจากกลุ่มนี้: Helen Toner อดีตสมาชิกคณะกรรมการของ OpenAI ที่ลาออกหลังจากการเลิกจ้าง CEO Sam Altman โดยไม่คาดคิดเมื่อปีที่แล้ว และ Eliezer Yudkowsky ผู้ร่วมก่อตั้ง Machine Intelligence Research Institute ซึ่งจัดการกับภัยคุกคามเชิงดำรงอยู่จาก AI Ross ต้องการสำรวจข้อมูลเชิงลึกที่พวกเขาได้รับในช่วงเวลาสั้น ๆ ในสปอตไลท์ “ฉันติดตามกลุ่มนี้ที่กังวลเกี่ยวกับ AI และความเสี่ยงเชิงดำรงมานานกว่าทศวรรษ และมองเห็นปรากฏการณ์ ChatGPT เป็นเรื่องเหนือจริง เนื่องจากสิ่งที่เคยเป็นวัฒนธรรมย่อยที่ไม่ค่อยเป็นที่รู้จักพุ่งขึ้นสู่แนวหน้า” Ross เล่าให้ฉันฟัง “ขณะนี้เมื่อช่วงเวลานี้ผ่านไปแล้ว ฉันต้องการเชื่อมต่อใหม่และดูว่าพวกเขาได้เรียนรู้อะไรบ้าง” คำเตือนของ AI ทำรอยไว้ โดย Ross Andersen อ่านบทความเต็ม อะไรที่ต้องอ่านต่อไป P

บิลล์ เกตส์ พูดคุยเกี่ยวกับนิยามของความสำเร็จของเขา ระบุปัญหาที่ยากที่สุดที่เยาวชนในปัจจุบันเผชิญ และเปรียบเทียบระหว่างการพัฒนาซอฟต์แวร์ในทศวรรษ 1970 กับการสร้างเครื่องมือ AI ในปัจจุบัน

บริษัท Constellation Energy Corp.

ในการสัมภาษณ์กับ Bloomberg Television ในงานประชุม Dreamforce ปีนี้ที่ซานฟรานซิสโก Benioff กล่าวว่าลูกค้าเชื่อว่าต้องสร้าง AI เอง ซึ่งไม่เป็นความจริง การเปิดเผยนี้สร้างความตื่นเต้นให้กับ Salesforce บริษัทซอฟต์แวร์ได้เปลี่ยนกลยุทธ์ AI ไปที่การสร้าง 'ตัวแทน' AI ซึ่งทำงานได้อัตโนมัติโดยไม่ต้องมีการดูแลของมนุษย์ Benioff กล่าวว่าบริษัทมีเป้าหมายที่จะติดตั้งตัวแทนหนึ่งพันล้านตัวในอีก 12 เดือนข้างหน้า Salesforce รับรู้ว่าเทคโนโลยีใหม่ของบริษัทอาจจะนำไปสู่การแทนที่งานบางอย่าง ตัวแทน AI เหล่านี้จะช่วยให้ธุรกิจสามารถเพิ่มความสามารถในการทำงานในช่วงเวลาที่ต้องการโดยไม่ต้องจ้างพนักงานเพิ่มเติม เมื่อวันพฤหัสบดีที่ผ่านมา หุ้นของ Salesforce พุ่งขึ้น 5
- 1