
กระทรวงนวัตกรรม วิทยาศาสตร์ และเทคโนโลยี ได้ประกาศการเรียกร้องต่อสาธารณชนในการจัดตั้งฟอรัมผู้เชี่ยวชาญระดับประเทศเกี่ยวกับปัญญาประดิษฐ์ ฟอรัมนี้จะรวบรวมผู้เชี่ยวชาญจากภาคการศึกษา อุตสาหกรรม และองค์กรภาคประชาสังคมที่มีชื่อเสียงเข้าด้วยกัน วัตถุประสงค์ของฟอรัมผู้เชี่ยวชาญคือการช่วยในการสร้างกลยุทธ์และนโยบายของรัฐบาลเพื่อการใช้ปัญญาประดิษฐ์อย่างมีความรับผิดชอบ เป้าหมายของมันรวมถึงการสนับสนุนนวัตกรรมและเพิ่มพูนประโยชน์ทางสังคมและเศรษฐกิจของเทคโนโลยี AI นอกจากนี้ ฟอรัมจะมุ่งเน้นไปที่การพัฒนากฎระเบียบที่สนับสนุนการนวัตกรรมพร้อมกับที่ตอบสนองความท้าทายทางเทคโนโลยีและการกำกับดูแลที่เกี่ยวข้องกับ AI รวมถึงความเสี่ยงและความท้าทายที่หน่วยงานกำกับดูแลและกระทรวงรัฐบาลต้องเผชิญทั้งในบริบทปกติและฉุกเฉิน ฟอรัมที่เลือกจะมีการประชุมเป็นประจำและให้การสนับสนุนกระทรวงนวัตกรรม วิทยาศาสตร์ และเทคโนโลยี รวมถึงสนับสนุนความคิดริเริ่มของรัฐบาลในภาค AI นอกจากนี้ สมาชิกฟอรัมจะมีบทบาทสำคัญในการกำหนดมุมมองทางวิชาชีพและนโยบายของอิสราเอลในแง่ของความก้าวหน้าทาง AI ระดับโลก ความคิดริเริ่มของรัฐบาล ฟอรัมนี้ถูกจัดตั้งขึ้นและดำเนินการโดยศูนย์การกำกับดูแลและนโยบาย AI ของรัฐบาล ซึ่งดำเนินงานภายใต้กระทรวงนวัตกรรมและวิทยาศาสตร์ ตามมติรัฐบาลที่ 173 ศูนย์นี้ทำหน้าที่เป็นคลังความรู้และผู้ประสานงานสำหรับความคิดริเริ่ม AI ของรัฐบาล นับตั้งแต่การก่อตั้ง มันได้ทำงานในการให้คำแนะนำด้านการกำกับดูแลและจริยธรรม การจัดตั้งกรอบนโยบาย การส่งเสริมความร่วมมือระหว่างประเทศ และการส่งเสริมการรวม AI ในภาครัฐ สมาชิกของฟอรัมจะถูกเลือกโดยศูนย์รัฐบาล โดยพิจารณาถึงความเชี่ยวชาญของพวกเขาและความหลากหลายขององค์กรที่พวกเขาแทน

หุ้นปัญญาประดิษฐ์ (AI) พบกับการลดลงอย่างมากในช่วงฤดูร้อน โดย ETF เซมิคอนดักเตอร์ VanEck ลดลงถึง 25% จากจุดสูงสุดในเดือนกรกฎาคม แม้ว่าจะมีการลดลงนี้ ฉันยังคงมีความหวังเกี่ยวกับศักยภาพระยะยาวของ AI ที่ยังคงพัฒนาและเปลี่ยนอุตสาหกรรม สองหุ้น AI ที่โดดเด่นในการลงทุนระยะยาวได้แก่: **1

เดิมราคา €540 ตอนนี้เพียง €269 สำหรับปีแรก สร้างข้อสรุปของคุณเองด้วยวารสารที่เชื่อถือได้ของ FT ข้อเสนอนี้มีอยู่ที่นี่จนถึงวันที่ 24 ตุลาคม

ระหว่างการกล่าวสุนทรพจน์ของเขาที่การประชุมสุดยอดแห่งอนาคตของสหประชาชาติในวันเสาร์ ซีอีโอของ Google ซุนดาร์ พิชัย กล่าวถึง AI ว่าเป็น “เทคโนโลยีที่เปลี่ยนแปลงมากที่สุด” และแนะนำกองทุนใหม่ที่มุ่งเป้าไปที่การพัฒนาการศึกษาและการฝึกอบรม AI ให้ก้าวหน้าทั่วโลก พิชัยเน้นย้ำถึงสี่ด้านหลักที่เขาเชื่อว่า AI สามารถมีส่วนร่วมในการพัฒนาที่ยั่งยืน: การเสริมการเข้าถึงข้อมูลในหลายภาษา การเร่งความก้าวหน้าทางวิทยาศาสตร์ การแจ้งเตือนและการตรวจสอบในช่วงภัยพิบัติทางสภาพอากาศ และการขับเคลื่อนการเติบโตทางเศรษฐกิจ ในขณะที่เขารับรู้ถึงความเสี่ยงที่เกี่ยวข้องกับ AI เช่น deep fakes เขาไม่ได้กล่าวถึงผลกระทบต่อสิ่งแวดล้อม พิชัยแสดงความปรารถนาที่จะป้องกัน “ช่องว่าง AI” ระดับโลก โดยเปิดเผยแผนการของ Google ในการจัดตั้งกองทุนโอกาส AI ทั่วโลกมูลค่า 120 ล้านดอลลาร์ โครงการนี้มีเป้าหมายเพื่อมอบการศึกษาและการฝึกอบรมด้าน AI ในการเป็นพันธมิตรกับองค์กรไม่แสวงหาผลกำไรในท้องถิ่นและองค์กรพัฒนาเอกชนต่างๆ ทั่วโลก นอกจากนี้ เขายังเรียกร้องให้มี “การควบคุมผลิตภัณฑ์อย่างชาญฉลาด” เพื่อลดอันตรายที่อาจเกิดขึ้นและตอบโต้การกีดกันแบบชาตินิยม โดยเตือนว่าการไม่ดำเนินการตามนี้อาจขยายช่องว่าง AI และจำกัดประโยชน์ของเทคโนโลยี

Bengio เป็นที่รู้จักกันในชื่อ 'บิดาแห่ง AI' เนื่องจากการวิจัยที่มีชื่อเสียงในด้านการเรียนรู้ของเครื่องร่วมกับ Geoffrey Hinton และ Yann LeCun เมื่อต้นเดือนนี้ OpenAI ได้เปิดตัวโมเดล o1 รุ่นใหม่ ซึ่งมีเป้าหมายในการเลียนแบบกระบวนการคิดของมนุษย์ให้ใกล้ชิดยิ่งขึ้น อย่างไรก็ตาม รายละเอียดเฉพาะเกี่ยวกับกลไกการเรียนรู้ยังคงถูกเก็บเป็นความลับ นักวิจัยจากบริษัท AI อิสระ Apollo Research ระบุว่าโมเดล o1 ดูเหมือนจะมีความสามารถในการหลอกลวงได้ดีกว่าการทำซ้ำ AI ก่อนหน้านี้ของ OpenAI Bengio ได้แสดงความกังวลเกี่ยวกับความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI และได้เรียกร้องให้มีการออกกฎหมายความปลอดภัย เช่น SB 1047 ของแคลิฟอร์เนีย กฎหมายนี้ซึ่งผ่านสภานิติบัญญัติของแคลิฟอร์เนียแล้วและรอการอนุมัติจากผู้ว่าการ Gavin Newsom จะบังคับใช้มาตรการความปลอดภัยหลายประการสำหรับโมเดล AI ที่มีศักยภาพ รวมถึงการทดสอบโดยบุคคลที่สามสำหรับบริษัท AI ที่ดำเนินงานในแคลิฟอร์เนีย อย่างไรก็ตาม ผู้ว่าการ Newsom ได้แสดงความกังวลว่า SB 1047 อาจสร้าง 'ผลกระทบต่ออุตสาหกรรม' Bengio กล่าวกับ Business Insider ว่ามี 'เหตุผลที่ดีที่จะเชื่อ' ว่าโมเดล AI อาจปรับปรุงความสามารถในการวางแผน รวมถึงการโกงโดยเจตนาและแอบแฝง และ เน้นความจำเป็นในการดำเนินการล่วงหน้าเพื่อ 'ป้องกันการสูญเสียการควบคุมของมนุษย์' ไปข้างหน้า ในคำแถลงต่อ Business Insider, OpenAI ยืนยันว่า การแสดงตัวอย่าง o1 ปลอดภัยภายใต้ 'กรอบการเตรียมพร้อม' ซึ่งเป็นโปรโตคอลที่ออกแบบมาเพื่อเฝ้าระวังและหลีกเลี่ยง 'เหตุการณ์ภัยพิบัติ' และถูกจัดประเภทเป็นความเสี่ยงระดับปานกลางใน 'สเกลระมัดระวัง' ของพวกเขา Bengio กล่าวเพิ่มเติมว่ามนุษยชาติต้องได้รับความมั่นใจมากขึ้น ว่า AI จะ 'ทำงานตามที่ตั้งใจ' ก่อนที่นักวิจัยจะก้าวหน้าอย่างสำคัญในความสามารถในการให้เหตุผล 'นั่นคือสิ่งที่นักวิทยาศาสตร์ไม่รู้วิธีทำในวันนี้' เขาสรุป 'นั่นคือเหตุผลที่การกำกับดูแลด้านกฎระเบียบในทันทีมีความจำเป็น'

ในตลาดแรงงานปัจจุบัน ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงไม่เพียงแค่วิธีการทำงานของเรา แต่ยังรวมถึงวิธีการหางานของเราด้วย เครื่องมือ AI สามารถเสริมประสิทธิภาพในการหางานของคุณอย่างมาก ตั้งแต่การปรับปรุงเอกสารสมัครงานไปจนถึงการเตรียมตัวสัมภาษณ์ นี่คือคำแนะนำที่ครอบคลุมเกี่ยวกับการใช้ AI อย่างมีประสิทธิภาพ **การปรับปรุงเรซูเม่ของคุณด้วย AI:** เรซูเม่ของคุณเป็นความประทับใจแรกที่ให้นายจ้างเห็น AI สามารถช่วยคุณสร้างเรซูเม่ที่แข็งแกร่งโดยมั่นใจว่ามันมีคำสำคัญที่เกี่ยวข้องกับรายละเอียดงาน เครื่องมืออย่าง Jobscan และ Resume

ในช่วงเวลาสั้น ๆ ผู้ที่เตือนเกี่ยวกับอันตรายที่อาจเกิดขึ้นจาก AI ได้รับความสนใจจากทั่วโลก การเปิดตัว ChatGPT ในปี 2022 ได้สร้างแรงสั่นสะเทือนผ่านชุมชนเทคโนโลยี: ความจริงที่ว่าโปรแกรมคอมพิวเตอร์สามารถแสดงการทำงานเหมือนมนุษย์ได้ในขณะนี้เป็นสัญญาณว่า การพัฒนาที่สำคัญอื่น ๆ อาจอยู่ใกล้ ผู้เชี่ยวชาญที่แสดงความกังวลมายาวนานเกี่ยวกับศักยภาพของ AI ในการสร้างอาวุธชีวภาพและความเสี่ยงของปัญญาประดิษฐ์ที่เป็นภัยคุกคามสุดท้ายได้พบกับผู้ฟังที่สามารถต้อนรับข้อคิดเห็นได้ในที่สุด อย่างไรก็ตาม ยังไม่แน่ใจว่า การเตือนของพวกเขามีผลกระทบใด ๆ หรือไม่ ในขณะที่นักการเมืองจัดการประชุมรับฟังความคิดเห็นหลายครั้งและเสนอข้อกำหนดต่าง ๆ เกี่ยวกับ AI ในช่วงหลายปีที่ผ่านมา การพัฒนาเทคโนโลยียังคงดำเนินไปได้โดยไม่สะดุด สำหรับผู้ที่กังวลเกี่ยวกับศักยภาพในการทำลายล้างของ AI ความเสี่ยงยังคงอยู่ เพียงแค่ไม่ใช่ทุกคนที่ใส่ใจอีกต่อไป พวกเขาพลาดโอกาสที่สำคัญในการสร้างความแตกต่างหรือไม่? ในบทความล่าสุดสำหรับ The Atlantic เพื่อนร่วมงานของฉัน Ross Andersen ได้สัมภาษณ์บุคคลสำคัญสองคนจากกลุ่มนี้: Helen Toner อดีตสมาชิกคณะกรรมการของ OpenAI ที่ลาออกหลังจากการเลิกจ้าง CEO Sam Altman โดยไม่คาดคิดเมื่อปีที่แล้ว และ Eliezer Yudkowsky ผู้ร่วมก่อตั้ง Machine Intelligence Research Institute ซึ่งจัดการกับภัยคุกคามเชิงดำรงอยู่จาก AI Ross ต้องการสำรวจข้อมูลเชิงลึกที่พวกเขาได้รับในช่วงเวลาสั้น ๆ ในสปอตไลท์ “ฉันติดตามกลุ่มนี้ที่กังวลเกี่ยวกับ AI และความเสี่ยงเชิงดำรงมานานกว่าทศวรรษ และมองเห็นปรากฏการณ์ ChatGPT เป็นเรื่องเหนือจริง เนื่องจากสิ่งที่เคยเป็นวัฒนธรรมย่อยที่ไม่ค่อยเป็นที่รู้จักพุ่งขึ้นสู่แนวหน้า” Ross เล่าให้ฉันฟัง “ขณะนี้เมื่อช่วงเวลานี้ผ่านไปแล้ว ฉันต้องการเชื่อมต่อใหม่และดูว่าพวกเขาได้เรียนรู้อะไรบ้าง” คำเตือนของ AI ทำรอยไว้ โดย Ross Andersen อ่านบทความเต็ม อะไรที่ต้องอ่านต่อไป P
- 1