ผลกระทบของร่างกฎหมาย One Big Beautiful Bill ต่อการกำกับดูแล AI และอนาคตเศรษฐกิจ | คาริน หาว สัมภาษณ์สด

ข้อกฎหมาย One Big Beautiful Bill Act ซึ่งผ่านไปเมื่อไม่นานมานี้ในสภา มีการแอบแฝงข้อกำหนดห้ามรัฐออกกฎระเบียบเกี่ยวกับปัญญาประดิษฐ์เป็นเวลา 10 ปี ติดต่อกัน รวมกับความสัมพันธ์ใกล้ชิดของทำเนียบขาวกับบุคคลสำคัญในวงการ A. I. เช่น อีลอน มัสก์ และซีอีโอของ OpenAI แซม อัลท์มันต์ และยังไม่มีการออกกฎหมายของรัฐบาลกลางเกี่ยวกับ A. I. อย่างครอบคลุม อุตสาหกรรมนี้อยู่ในช่วงเติบโตอย่างไม่จำกัดในช่วงว่างด้านกฎหมาย ซึ่งน่ากังวลอย่างยิ่ง เนื่องจาก A. I. สร้างสรรค์กำลังจะส่งผลกระทบอย่างลึกซึ้งต่อเศรษฐกิจ ผลสำรวจของ World Economic Forum พบว่า 40 เปอร์เซ็นต์ของนายจ้างทั่วโลกวางแผนลดจำนวนพนักงานด้วยการอัตโนมัติด้วย A. I. วันนี้เวลา 12:30 น. ตามเวลาทางตะวันออก จะมีการสนทสดกับนักข่าวและนักเขียน คาเร็น ห่าว ในเรื่องหนังสือ *Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI* หนังสือเล่มนี้วิเคราะห์ how การค้นหาเพื่อสร้างปัญญาประดิษฐ์ได้ครอบงำ Silicon Valley เปลี่ยนแปลงการทำงานและชีวิตทั่วโลก และสำรวจผลกระทบในอนาคตและแนวทางแก้ไข การพูดคุยก่อนหน้านี้กับ ห่าว, นักเคลื่อนไหว Sneha Revanur, นักเขียน R. O. Kwon และนักเทคโนโลยี Catherine Bracy ได้เน้นบทบาทของการลงทุนในธุรกิจและนวัตกรรมเทคโนโลยี และอนาคตทางเศรษฐกิจ ในด้านเศรษฐกิจ ผลกระทบของ A. I. ต่อแรงงานมีขนาดใหญ่และอาจนำไปสู่ความหายนะ ซึ่งเป็นภัยคุกคามมากกว่าการทำงานแบบกิ๊กกายที่เปลี่ยนแรงงานเป็นผู้รับเหมาอิสระ ปัญหาคือผู้สนับสนุนหลัก Nานโยบายเทคโนโลยีบางกลุ่มยังมองข้ามความเสี่ยงของ A. I. บางแห่งมองว่า A. I. เป็นแค่ของปลอม แต่ในความเป็นจริง A. I. ชนิดนี้ในทุกวันนี้ก็สร้างผลกระทบต่ออาชีพ ทำให้ค่าจ้างต่ำลง และเข้าถึงข้อมูลแรงงานอีกด้วย หลายบริษัทลังเลที่จะนำ A. I.
มาใช้เนื่องจากความต้านทานการเปลี่ยนแปลง แต่ภาวะเศรษฐกิจตกต่ำและการลดตำแหน่งงานจะผลักดันการนำ A. I. มาใช้มากขึ้น ทำให้สภาพแวดล้อมของแรงงานแย่ลง ตัวอย่างเช่น CVS แสดงให้เห็นว่าบริษัทใช้ระบบอัตโนมัติและแอปพลิเคชันที่ต้องใช้การจดจำใบหน้า เน้นประหยัดต้นทุนมากกว่าประสบการณ์ลูกค้า จริงๆ แล้ว แม้ A. I. ยังไม่ดีเท่ามนุษย์ บริษัทก็ยังผลักดันให้เปลี่ยนแปลง ในร้านค้าปลีก ระบบเหล่านี้ยังถูกใช้เพื่อปรับราคาสด based on ข้อมูลผู้บริโภค เช่น พ่อแม่เหนื่อยที่ซื้อนาขวดผ้าอ้อมในเวลากลางดึก ซึ่งเป็นประเด็นด้านจริยธรรมที่ชี้ให้เห็นถึงการเอารัดเอาเปรียบ คาเร็น ห่าวแสดงความระมัดระวัง ไม่ใช่เพราะ A. I. จะกลายเป็นสิ่งมีชีวิตและครองโลก แต่เป็นเพราะพฤติกรรมของบริษัทที่เน้นกำไรมากกว่าคุณภาพสังคม ซาม อัลท์มันต์และบุคคลอื่นๆ มองภาพของ A. I. ที่เปลี่ยนแปลงได้ แต่ในปัจจุบันอุตสาหกรรมมุ่งเน้นไปที่การอัตโนมัติแทนที่จะเป็นการสมัครสมาชิกสำหรับผู้บริโภคอย่าง ChatGPT ซึ่งโมเดลทางธุรกิจนี้เสี่ยงที่จะเพิ่มความไม่เสมอภาคและทำร้ายทั้งแรงงานและสิ่งแวดล้อม เนื่องจาก A. I. ต้องใช้พลังงานมากเป็นต้นเหตุของปัญหาสิ่งแวดล้อม ปัญหาแกนหลักอยู่ที่แรงจูงใจในการลงทุนที่ผลักดันให้ A. I. ถูกใช้อย่างเอารัดเอาเปรียบ แทนที่จะมุ่งเป้าหาประโยชน์แก่สังคม เช่น ห่าวเรียกร้องให้เปลี่ยนแปลงแนวทางนักลงทุน เพื่อมุ่งเน้นไปที่การแก้ไขปัญหาแท้จริง เช่น โรคภัยไข้เจ็บ อัลท์มันต์เคยกล่าวว่า OpenAI ควรไม่ใช่องค์กรเพื่อแสวงหากำไรที่ได้รับอิทธิพลจากนักลงทุน แต่แนวโน้มในปัจจุบันขัดกับความฝันนั้น ซึ่งห่าวมองว่าน่าตกใจ โดยสรุปแล้ว ในขณะที่ A. I. มีศักยภาพในการสร้างนวัตกรรมที่น่าทึ่ง แต่เส้นทางในปัจจุบัน—ซึ่งมีการควบคุมกฎหมายอย่างน้อย การใช้อัตโนมัติที่เน้นกำไร และการใช้ข้อมูลในทางที่ผิด—เป็นภัยคุกคามต่อแรงงาน ผู้บริโภค และโลก ใคร่ครวญเรื่องนี้เร่งเร้ากระบวนการสร้างกฎหมาย กรอบการกำกับดูแล และแนวคิดด้านการลงทุนให้พัฒนาขึ้นอย่างเร่งด่วน เพื่อชี้นำ A. I. ไปสู่ผลลัพธ์ที่เป็นธรรมและยั่งยืน การสนทนาสดในอนาคตประกอบด้วย การพูดคุยกับคาเร็น ห่าวในวันที่ 27 พฤษภาคม เวลา 12:30 น. ตามเวลาตะวันออก, The Ink Book Club ในวันที่ 28 พฤษภาคม และนักการสื่อสารด้านข้อความ Anat Shenker-Osorio ในวันที่ 29 พฤษภาคม ผู้ชมสามารถรับชมสดผ่านแอป Substack หรือหน้าแรกเว็บไซต์ พร้อมสมัครสมาชิกเพื่อเข้าถึงเนื้อหาครบถ้วนและสนทนาโต้ตอบ
Brief news summary
ข้อเสนอของงบประมาณของสภาซึ่งเพิ่งเสนอไปเมื่อเร็ว ๆ นี้ รวมถึงมาตรการห้ามรัฐกำหนดกฎระเบียบด้าน AI เป็นเวลาสิบปี ซึ่งอาจส่งผลให้การเติบโตของอุตสาหกรรมนี้ไม่มีการควบคุม แม้ว่า AI จะมีผลกระทบทางเศรษฐกิจที่เพิ่มขึ้น—โดย 40% ของนายจ้างวางแผนลดจำนวนพนักงานเนื่องจากอัตโนมัติ—สหรัฐอเมริกายังขาดกฎหมายด้าน AI ที่ครอบคลุมระดับรัฐบาลกลาง หนังสือของคาเรน ฮาว เรื่อง Empire of AI สำรวจอิทธิพลของ AI ใน Silicon Valley การเปลี่ยนแปลงพลวัตของแรงงาน และผลกระทบในอนาคต นักวิเคราะห์เตือนว่า AI เสี่ยงต่อความเสี่ยงด้านแรงงานที่มากกว่ากิจกรรมงานชั่วคราว (gig economy) เนื่องจากความเสี่ยงจากการสูญเสียตำแหน่งงานจำนวนมากเป็นไปได้ แม้จะไม่มีปัญญาประดิษฐ์ทั่วไปขั้นสูงก็ตาม บริษัทต่าง ๆ มักให้ความสำคัญกับการลดต้นทุนและการรวบรวมข้อมูลมากกว่าความเป็นอยู่ของแรงงานและผู้บริโภค เช่น แอปพลิเคช็อปปิ้งออนไลน์ที่ใช้การตั้งราคาที่เปลี่ยนแปลงตามข้อมูลผู้บริโภคเพื่อเอาเปรียบผู้บริโภค ขณะที่ AI อาจเร่งการค้นพบทางวิทยาศาสตร์ แต่แรงจูงใจในระบบทุนนิยมปัจจุบันยังสนับสนุนการอัตโนมัติเพื่อกำไรเป็นหลัก มากกว่าผลประโยชน์ของสังคม เพื่อให้ AI เป็นประโยชน์ต่อสังคมอย่างแท้จริง นักลงทุนจำเป็นต้องเปลี่ยนทิศทางความสำคัญไปที่แรงงาน ผู้บริโภค และสิ่งแวดล้อม มากกว่ากำไร
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

นักลงทุนคริปโตรายที่สองถูกตั้งข้อหาลักพาตัวและทรมานชาย…
นักลงทุนคริปโตเคอร์เรนซีรายที่สองได้มอบตัวกับตำรวจในวันอังคารที่เกี่ยวข้องกับข้อกล่าวหาในการล kidnapping ของชายคนหนึ่งที่รายงานว่าเขาเผชิญกับการทรมานเป็นสัปดาห์ภายในบ้านหรูในแมนฮัตตัน ผู้ kidnappers รายงานว่าขอรหัสผ่านเข้าใช้งานบัญชี Bitcoin ของเขา วิลเลียม ดูเพลซี วัย 32 ปี ถูกตั้งข้อหาล kidnapping และข้อหาที่เกี่ยวข้อง การจับกุมเขาเกิดขึ้นเพียงไม่กี่วันหลังจากการจับกุมผู้ต้องสงสัยรายแรก หลังจากเหยื่อได้รับการช่วยเหลือในเช้าวันศุกร์ที่ผ่านมา เจ้าหน้าที่ได้ดำเนินการสืบสวนอย่างรวดเร็ว ซึ่งนำไปสู่การส surrendered ของดูเพลซีและการตั้งข้อหาอย่างเป็นทางการ ทนายของเขาปฏิเสธที่จะให้ความคิดเห็นในรายละเอียด แต่ยืนยันว่าเขาตั้งใจจะร่วมมือกับเจ้าหน้าที่ คดีที่น่ารำคาญนี้สะท้อนให้เห็นถึงแนวโน้มการเพิ่มขึ้นของกิจกรรมอาชญากรรมที่เชื่อมโยงกับคริปโตเคอร์เรนซีทั่วโลก ตำรวจทั่วโลกสังเกตเห็นการเพิ่มขึ้นของอาชญากรรมรุนแรงที่โจมตีเจ้าของเงินดิจิทัล ความไม่ระบุชื่อและมูลค่าสูงของคริปโตเคอร์เรนซีทำให้นักลงทุนเสี่ยงต่อการถูกล kidnapping การขู่ว่าจะเรียกค่าไถ่ และการโจรกรรม ทั้งดูเพลซีและผู้ต้องสงสัยอีกคน—ซึ่งยังคงไม่เปิดเผยตัวตนเต็มที่เนื่องจากการสอบสวนที่ยังดำเนินอยู่—เชื่อว่าเป็นนักลงทุนคริปโตที่มีเครือข่ายในชุมชนสินทรัพย์ดิจิทัล นาย Woeltz ซึ่งเป็นผู้ต้องสงสัยรายแรก ได้ระบุตัวเองว่าเป็นผู้ประกอบธุรกิจคริปโตเคอร์เรนซีที่มีประสบการณ์ในการทำธุรกรรมบล็อกเชนและการลงทุนอย่างกว้างขวาง เจ้าหน้าที่กล่าวหาเพ ว่าดูเพลซีและวูลต์ซ วางแผนร่วมกันในการล kidnapping เหยื่อ ซึ่งก็เป็นนักลงทุนคริปโตเช่นกัน โดยมีเป้าหมายเพื่อบังคับให้เขาเปิดรหัสผ่าน Bitcoin ของเขา ในช่วง 17 วัน เหยื่อถูกกักขังในบ้านหรูหรานี้ และได้รับการทารุณกรรมทั้งกายและใจจากผู้ก่อเหตุ ซึ่งพยายามเข้าถึงสินทรัพย์ดิจิทัลของเขา แม้จะมีความพยายามหนีหลายครั้ง แต่ก็ล้มเหลวในตอนแรก จนกระทั่งเพื่อนบ้านเริ่มสงสัยในกิจกรรมผิดปกติที่บ้าน จนเจ้าหน้าที่ตำรวจเข้าทำการตรวจค้น พบบุคคลในสภาพอ่อนแออย่างรุนแรง มีบาดแผลจากการถูกทำร้ายอย่างยาวนาน เขาถูกส่งโรงพยาบาลและกำลังได้รับการรักษาเพื่อบาดแผลและบาดหมางใจ เหตุการณ์นี้เปรียบเทียบได้กับคดีล่าสุดที่เกี่ยวข้องกับนักลงทุนคริปโต เมื่อเดือนก่อนในกรุงปารีส เจ้าหน้าที่ตำรวจจับกุมกลุ่มที่สงสัยว่าจะเรียกเก็บเงินหลายล้านผ่านการข่มขู่และใช้ความรุนแรงต่อเจ้าของคริปโต เมื่อเดือนสิงหาคมปีที่แล้ว การล kidnapping ในแดนเบอรี รัฐคอนเนตทิคัต ได้แสดงให้เห็นถึงอันตรายที่เพิ่มขึ้นต่อกลุ่มนักลงทุนสินทรัพย์ดิจิทัล รายงานของ FBI ระบุว่ามีการเพิ่มขึ้นอย่างมีนัยสำคัญของอาชญากรรมรุนแรงที่เกี่ยวข้องกับคริปโตในรอบปีที่ผ่านมา นักวิเคราะห์เตือนว่าขณะคริปโตเคอร์เรนซีได้รับการยอมรับในวงกว้างมากขึ้น อาชญากรรมที่เกี่ยวข้องอาจเพิ่มขึ้นเช่นกัน สำนักงานบังคับใช้กฎหมายได้รับการเรียกร้องให้เสริมสร้างการคุ้มครองผู้เสี่ยงและพัฒนากลยุทธ์เพื่อต่อสู้กับอาชญากรรมที่ซับซ้อนและมักเป็นอาชญากรรมข้ามชาติ การสอบสวนในบ้านในแมนฮัตตันยังดำเนินต่อไป โดยอัยการเตรียมที่จะขอระเบียบขั้นสูงสุดตามกฎหมาย ในขณะเดียวกัน ชุมชนคริปโตแสดงความกังวลอย่างลึกซึ้งเกี่ยวกับความเสี่ยงด้านความปลอดภัยของการบริหารจัดการสินทรัพย์ดิจิทัล เรียกร้องให้มีมาตรฐานในอุตสาหกรรมที่เข้มแข็งขึ้นและความร่วมมือกับเจ้าหน้าที่เพื่อบรรเทาความเสี่ยง คดีนี้เน้นย้ำถึงอันตรายที่เชื่อมโยงกับโลกคริปโตเคอร์เรนซีที่ขยายตัวขึ้น เมื่อการนำไปใช้และเทคโนโลยีก้าวหน้า ความจำเป็นในการปรับปรุงมาตรการด้านความปลอดภัยและการให้ความรู้แก่เจ้าของทรัพย์สินก็เพิ่มขึ้น เพื่อป้องกันความเสี่ยงและรักษาความปลอดภัยในทรัพย์สินและความเป็นอยู่ส่วนตัวของพวกเขา

โซลูชันด้านสุขภาพด้วยพลังปัญญาประดิษฐ์: เปลี่ยนแปลงการ…
ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงวงการดูแลสุขภาพอย่างรวดเร็วโดยนำเสนอโซลูชันนวัตกรรมที่ช่วยปรับปรุงการดูแลผู้ป่วยและประสิทธิภาพในการดำเนินงานได้อย่างมาก ด้วยเทคโนโลยี AI ขั้นสูง ระบบสุขภาพสามารถวิเคราะห์ข้อมูลทางการแพทย์จำนวนมหาศาลเพื่อค้นหาแพทเทิร์นและข้อมูลเชิงลึกที่ก่อนหน้านี้ยากหรือเป็นไปไม่ได้ที่จะตรวจจับ ซึ่งส่งผลให้สามารถสร้างเครื่องมือวิเคราะห์เชิงคาดการณ์ที่สามารถระบุความเสี่ยงต่อสุขภาพได้ก่อนที่อาการจะแสดงออกมา ทำให้สามารถแทรกแซงตั้งแต่เนิ่นๆและวางแผนการรักษาแบบเฉพาะบุคคลตามความต้องการของผู้ป่วยแต่ละราย หนึ่งในแอปพลิเคชันสำคัญของ AI ในด้านดูแลสุขภาพคือกระบวนการวินิจฉัย อัลกอริทึมการเรียนรู้ของเครื่องซึ่งเป็นส่วนหนึ่งของ AI ถูกฝึกด้วยข้อมูลชุดต่าง ๆ ซึ่งช่วยให้สามารถตรวจจับแพทเทิร์นและความผิดปกติในภาพทางการแพทย์ ผลการวิเคราะห์ในผลตรวจแลบ และข้อมูลวินิจฉัยอื่น ๆ ด้วยความแม่นยำสูง ความสามารถนี้ช่วยให้สามารถตรวจพบโรคเช่นมะเร็ง โรคหัวใจ และโรคทางประสาทได้ในระยะเริ่มต้น โดยลดความพึ่งพาการแปลผลโดยมนุษย์ และลดความผิดพลาดในการวินิจฉัย อีกทั้งยังสนับสนุนการตัดสินใจด้านการรักษาที่แม่นยำและทันท่วงที ซึ่งจะช่วยปรับปรุงผลลัพธ์ของผู้ป่วยและบรรเทาความกดดันในสถานพยาบาลโดยป้องกันการลุกลามของโรค นอกจากด้านการวินิจฉัย AI ยังช่วยปรับปรุงกระบวนการบริหารงานในโรงพยาบาลและคลินิก เช่น การจัดตารางนัดหมาย การออกบิล การจัดการบันทึกข้อมูลผู้ป่วย และการดำเนินการเคลมประกัน ซึ่งถูกควบคุมด้วยระบบ AI ได้มากขึ้น ระบบอัตโนมัตินี้ช่วยลดความผิดพลาดของมนุษย์และเพิ่มเวลาของบุคลากรทางการแพทย์ให้เหลือเฟือขึ้น ทำให้พวกเขาสามารถมุ่งเน้นไปที่การดูแลผู้ป่วยโดยตรงและการตัดสินใจทางคลินิกที่ซับซ้อนมากขึ้น ประสิทธิภาพที่ได้จากการสนับสนุนด้านบริหารแบบอัตโนมัติด้วย AI ช่วยลดต้นทุนด้านสุขภาพโดยรวมและเพิ่มความพึงพอใจของผู้ป่วย ด้วยการลดเวลารอและความล่าช้าในการดำเนินการต่าง ๆ การบูรณาการ AI เข้ากับระบบสุขภาพได้รับแรงผลักดันจากความก้าวหน้าด้านการพัฒนาอัลกอริทึมและความสามารถในการเข้าถึงข้อมูลคุณภาพสูงอย่างต่อเนื่อง คาดว่าเทคโนโลยี AI จะมีบทบาทมากขึ้นในด้านต่าง ๆ เช่น การค้นพบยารักษา การแพทย์เฉพาะบุคคล บริการโทรเวชกรรม และการติดตามผู้ป่วยระยะไกล นวัตกรรมเหล่านี้มีศักยภาพที่จะเปลี่ยนแปลงวิธีการให้บริการด้านสุขภาพ ให้มีความสามารถในการรองรับจำนวนมาก เข้าถึงได้ง่าย และปรับให้เหมาะกับความต้องการของผู้ป่วยแต่ละราย ในอนาคต การพิจารณาด้านจริยธรรมและกฎระเบียบจะเป็นสิ่งสำคัญอย่างยิ่งในการกำหนดทิศทางการนำ AI ไปใช้ในวงการดูแลสุขภาพ ควรให้ความสำคัญกับความเป็นส่วนตัวของข้อมูลผู้ป่วย ความโปร่งใสในการตัดสินใจของ AI และความเท่าเทียมในการเข้าถึงบริการสุขภาพที่ใช้ AI ความร่วมมือระหว่างนักเทคโนโลยี ผู้ให้บริการด้านสุขภาพ นักนโยบาย และผู้ป่วยจะเป็นกุญแจสำคัญในการใช้ประโยชน์สูงสุดจาก AI พร้อมกับลดความเสี่ยงที่อาจเกิดขึ้น สรุปได้ว่า ปัญญาประดิษฐ์กำลังกลายเป็นส่วนสำคัญของระบบสุขภาพยุคใหม่ การนำไปใช้ในด้านการวิเคราะห์เชิงคาดการณ์ การวินิจฉัย และการสนับสนุนด้านบริหาร กำลังเพิ่มคุณภาพการดูแลผู้ป่วยและประสิทธิภาพในการดำเนินงานอย่างต่อเนื่อง ขณะที่เทคโนโลยี AI พัฒนาขึ้นอย่างต่อเนื่อง การนำเข้าในระบบสุขภาพสัญญาว่าจะเป็นการเปิดยุคใหม่ของการแพทย์แม่นยำและการดูแลที่มุ่งเน้นผู้ป่วยเป็นศูนย์กลาง ซึ่งจะช่วยให้ผลลัพธ์ด้านสุขภาพดีขึ้นทั่วโลก

Blockchain.com จะขยายตัวในแอฟริกา ขณะที่กฎหมายของค…
บริษัทกำลังขยายการดำเนินงานในทวีปมากขึ้น เนื่องจากกฎระเบียบที่ชัดเจนขึ้นเกี่ยวกับสกุลเงินดิจิทัลเริ่มมีรูปแบบที่แน่นอนแล้ว โดย ฟรานซิสโก โรดรีเกส | เรียบเรียงโดย ปาริกษิต มิชรา วันที่ 27 พฤษภาคม 2025 เวลา 12:29 น

เมต้าปรับโครงสร้างทีมด้านปัญญาประดิษฐ์เพื่อแข่งขันกับ …
เมตากำลังดำเนินการปรับโครงสร้างครั้งใหญ่ของทีมปัญญาประดิษฐ์ (AI) เพื่อเร่งพัฒนาและปล่อยนวัตกรรมผลิตภัณฑ์และคุณสมบัติด้าน AI ท่ามกลางการแข่งขันที่เพิ่มขึ้นจากบริษัทต่าง ๆ เช่น OpenAI, Google และ ByteDance ตามบันทึกภายในที่ Axios ได้รับมา ประกาศโดยหัวหน้าฝ่ายผลิตภัณฑ์คริส ค็อกซ์ ว่ามีการสร้างหน่วยงาน AI ใหม่ 2 ฝ่ายภายในเมตา ฝ่ายแรก คือ ทีมผลิตภัณฑ์ AI ซึ่งนำโดย คอนเนอร์ เฮย์ส จะเน้นพัฒนาผลิตภัณฑ์ AI ที่ใช้งานได้จริงสำหรับผู้ใช้งานจำนวนมากของเมตา งานของทีมนี้จะช่วยพัฒนาบริการเดิมและแนะนำฟังก์ชันการใช้งานใหม่ที่ขับเคลื่อนด้วย AI เพื่อปรับปรุงประสบการณ์ผู้ใช้ในแพลตฟอร์มของเมตา ฝ่ายที่สอง คือ หน่วยงานรากฐาน AGI ซึ่งร่วมกันนำโดย อะหมัด อัล-ดาห์เล และ อมียร์ เฟรนเคิล จะมุ่งเน้นการวิจัยเบื้องต้นเกี่ยวกับปัญญาประดิษฐ์ทั่วไป (AGI) เพื่อพัฒนาความสามารถของ AI ในสอดคล้องกับวิสัยทัศน์เทคโนโลยีระยะยาวของเมตา เป้าหมายสำคัญของการปรับโครงสร้างครั้งนี้ คือ การเพิ่มความรับผิดชอบและความเป็นเจ้าของในแต่ละทีมโดยการกำหนดหน้าที่รับผิดชอบและความพึ่งพาอย่างชัดเจน เพื่อให้การทำงานร่วมกันเป็นไปอย่างราบรื่นและเพิ่มประสิทธิภาพในการพัฒนา AI แม้จะมีการเปลี่ยนแปลงนี้ แต่ก็จะไม่มีการลาออกของผู้บริหารหรือลดจำนวนงานลง บางผู้นำถูกโยกย้ายจากฝ่ายอื่นไปยังบทบาทใหม่ในหน่วย AI เพื่อรักษาความเชี่ยวชาญในองค์กรให้คงอยู่ พร้อมทั้งจัดสรรทรัพยากรให้สอดคล้องกับเป้าหมายเชิงกลยุทธ์ การปรับโครงสร้างนี้เกิดขึ้นหลังจากการเปลี่ยนแปลงครั้งเดียวในปี 2023 ซึ่งสะท้อนถึงความมุ่งมั่นของเมตาที่จะเสริมสร้างความสามารถด้าน AI และคงความสามารถในการแข่งขันในกลุ่มเทคโนโลยีชั้นนำที่ลงทุนอย่างหนักใน AI เมตามุ่งหวังที่จะเป็นผู้นำด้วยการเชื่อมต่อการวิจัยเบื้องต้นด้าน AI กับการพัฒนาผลิตภัณฑ์ที่มีผลต่อผู้ใช้งานทั่วโลกหลายล้านคน ทีมผลิตภัณฑ์ AI จะนำเทคโนโลยีในด้านการเรียนรู้ของเครื่อง ประมวลผลภาษาธรรมชาติ คอมพิวเตอร์วิทัศน์ และสาขาย่อยอื่น ๆ ของ AI มาใช้เพื่อพัฒนาบริการต่าง ๆ เช่น การกลั่นกรองเนื้อหา คำแนะนำส่วนบุคคล เทคโนโลยีเสมือนจริง และอินเทอร์เฟซผู้ใช้ที่ชาญฉลาด ในขณะเดียวกัน กลุ่มรากฐาน AGI จะดำเนินการวิจัยล้ำสมัยเพื่อพัฒนาระบบ AI ที่มีความสามารถหลากหลายและเข้าใจและคิดได้อย่างลึกซึ้งเกินกว่าความสามารถในปัจจุบัน ความสนใจทั้งในด้าน AI ที่นำไปใช้และงานวิจัยพื้นฐานของเมตาสอดคล้องกับแนวโน้มอุตสาหกรรมโดยรวมที่บริษัทชั้นนำลงทุนพร้อมกันในทางปฏิบัติและนวัตกรรมที่เปลี่ยนแปลงวงการเพื่อกำหนดอนาคตของ AI การรักษาคนงานเดิมไว้อย่างต่อเนื่องและการปรับเปลี่ยนผู้นำภายในทีม AI ชี้ให้เห็นถึงความสำคัญที่เมต้ามอบให้กับการรักษาความรู้ในองค์กรและเร่งรัดกระบวนการพัฒนา โดยรวมแล้ว การปรับโครงสร้างนี้เน้นย้ำถึงความมุ่งมั่นของเมตาที่จะให้ AI เป็นหัวใจสำคัญของการเติบโตและกลยุทธ์ในการแข่งขัน ทำให้บริษัทสามารถใช้ประโยชน์จากพลังแห่งการเปลี่ยนแปลงของ AI ได้ดียิ่งขึ้น นักวิเคราะห์อุตสาหกรรมจะจับตามองอย่างใกล้ชิดว่าการดำเนินการปรับแนวทางนี้ของเมตาจะประสบความสำเร็จในการแปลงแนวคิดเป็นผลิตภัณฑ์ AI ที่มีผลกระทบอย่างแท้จริง ซึ่งเป็นปัจจัยสำคัญต่อการวางตำแหน่งของบริษัทในสนามแข่ง AI ที่เข้มข้นขึ้นเรื่อย ๆ

Blockchain.com ขยายตัวในแอฟริกาในขณะที่กฎคริปโตท้อง…
Blockchain

Bilal Bin Saqib แต่งตั้งเป็นผู้ช่วยพิเศษของนายกรัฐมนตร…
นายกรัฐมนตรี Shehbaz Sharif ได้แต่งตั้ง Bilal Bin Saqib ซึ่งดำรงตำแหน่งประธานเจ้าหน้าที่บริหารของสมาคมคริปโตแห่งปากีสถาน (PCC) ให้ดำรงตำแหน่งผู้ช่วยพิเศษด้านบล็อกเชนและคริปโตเคอร์เรนซี โดยมอบสถานะเป็นรัฐมนตรีระดับรัฐมนตรี ในวันที่ 25 กุมภาพันธ์ กระทรวงการคลังได้ประกาศว่าอยู่ในระหว่างการพิจารณาจัดตั้ง “สภาคริปโตแห่งชาติ” เพื่อรองรับสกุลเงินดิจิทัลที่เกิดขึ้นใหม่ ตามแนวโน้มของโลก ต่อมาได้แต่งตั้ง Saqib เป็น CEO ของ PCC ตามแถลงการณ์ที่ออกในวันนี้ ความรับผิดชอบของ Saqib รวมถึงการพัฒนากรอบระเบียบข้อบังคับที่ครอบคลุมและสอดคล้องกับมาตรฐาน FATF สำหรับสินทรัพย์ดิจิทัล การริเริ่มโครงการขุด Bitcoin และการดูแลการบูรณาการเทคโนโลยีบล็อกเชนในด้านการบริหาร การเงิน และการจัดการทะเบียนที่ดิน นอกจากนี้ เขายังจะเป็นผู้ประสานงานด้าน “การออกใบอนุญาตและการกำกับดูแลผู้ให้บริการสินทรัพย์เสมือน (VASPs)” และส่งเสริม “การคุ้มครองนักลงทุนและการเติบโตของระบบนิเวศ Web3” ภายในปากีสถาน นิตยสาร Forbes แจ้งว่า Saqib ซึ่งได้รับการจัดอันดับใน ‘30 under 30’ ได้ร่วมก่อตั้ง Tayaba ซึ่งเป็น “องค์กรสังคมที่มุ่งแก้ไขปัญหาวิกฤติน้ำของปากีสถาน” แถลงการณ์ยังเน้นว่า Saqib ได้รับรางวัล MBE ในปี 2023 สำหรับผลงานและการมีส่วนร่วมในบริการสาธารณสุขแห่งสหราชอาณาจักร รางวัล MBE หรือ “สมาชิกแห่งสมเด็จพระบรมราชวงศ์อังกฤษ” เป็นการยกย่องความสำเร็จหรืองานบริการที่มีผลกระทบต่อชุมชนอย่างมีนัยสำคัญและยั่งยืน ประกาศยังเน้นว่า การแต่งตั้งครั้งนี้แสดงให้เห็นถึง “ความมุ่งมั่นของปากีสถานต่อแนวโน้มของโลก” “เช่นเดียวกับที่สหรัฐอเมริกาได้บรรจุผู้นำเช่น David Sacks ซึ่งถูกแต่งตั้งโดย Donald Trump ให้เป็นหัวหน้าสำนักงานบริหารด้าน AI และคริปโตเคอร์เรนซี ของทำเนียบขาว ประเทศปากีสถานก็ได้ใช้กลยุทธ์ที่มองไปข้างหน้า โดยให้พลังแก่ผู้นำรุ่นเยาว์ในการกำหนดแนวทางระดับชาติด้านเทคโนโลยีใหม่” แถลงการณ์ระบุ แถลงการณ์ยังกล่าวว่าประเทศอยู่ใน “ช่วงวิกฤติของยุคดิจิทัล” โดยมักอยู่ใน 10 อันดับแรกของโลกด้านการนำคริปโตเข้าสู่ระบบ ตามข้อมูลจากดัชนี Global Crypto Adoption Index ปี 2023 ของ Chainalysis ทั้งนี้ ปากีสถานมีผู้ใช้คริปโตประมาณ 40 ล้านคน และมียอดการซื้อขายคริปโตต่อปีมากกว่า 300 พันล้านดอลลาร์ นอกจากนี้ประเทศยังผลิตบัณฑิตด้านไอทีประมาณ 40,000 คนต่อปี และมีตลาดฟรีแลนซ์ใหญ่เป็นอันดับสี่ของโลก Saqib กล่าวว่า “ภูมิประเทศและประชากรดิจิทัลที่เป็นเอกลักษณ์ของปากีสถานเปิดโอกาสครั้งสำคัญในการก้าวเข้าสู่อนาคตของเทคโนโลยี ซึ่งบล็อกเชนและคริปโตจะเป็นแรงขับเคลื่อนการเติบโตทางเศรษฐกิจ นวัตกรรม และความสามารถในการแข่งขันในระดับโลก”

เส้นทางสองเส้นสำหรับปัญญาประดิษฐ์
ฤดูใบไม้ผลิปีที่แล้ว Daniel Kokotajlo นักวิจัยด้านความปลอดภัยของ AI ที่ OpenAI ลาออกด้วยการประท้วง เชื่อว่าบริษัทยังไม่พร้อมสำหรับอนาคตของเทคโนโลยี AI และต้องการเตือนภัย ในการสนทาทางโทรศัพท์ เขาดูเป็นมิตรแต่ก็แสดงความวิตกกังวล อธิบายว่าความก้าวหน้าในด้าน “การปรับแนวทาง” ของ AI — วิธีการทำให้ AI ปฏิบัติตามค่านิยมของมนุษย์ — ล่าช้ากว่าความก้าวหน้าทางปัญญา เขาเตือนว่านักวิจัยกำลังเร่งสร้างระบบทรงพลังที่อยู่นอกเหนือการควบคุม Kokotajlo ซึ่งเปลี่ยนเส้นทางจากระดับบัณฑิตด้านปรัชญามาสู่ AI ได้เรียนรู้ด้วยตนเองเพื่อเฝ้าติดตามความก้าวหน้าของ AI และทำนายจุดเปลี่ยนสำคัญของปัญญาที่อาจเกิดขึ้น หลังจาก AI พัฒนารวดเร็วเกินคาด เขาจึงปรับแผนเวลาเป็นหลายทศวรรษ ในฉากทัศน์ปี 2021 ของเขา “อนาคตปี 2026” หลายคำทำนายเกิดขึ้นเร็วเกินไป เขาจึงมองว่าในปี 2027 หรือเร็วกว่านั้น จะเกิด “จุดไม่สามารถย้อนกลับได้” ซึ่ง AI อาจแซงมนุษย์ในงานสำคัญที่สุดและมีอำนาจมาก เขารู้สึกหวาดกลัว ในเวลาเดียวกัน นักวิทยาศาสตร์คอมพิวเตอร์แห่ง Princeton อย่าง Sayash Kapoor และ Arvind Narayanan ก็เตรียมหนังสือ “AI Snake Oil” ซึ่งมีมุมมองตรงกันข้าม โดยโต้แย้งว่าช่วงเวลาแห่ง AI เกินจริง เกี่ยวกับความสามารถ AI ที่อวดอ้างว่ามีประโยชน์ ก็ถูกยกขึ้นเกินจริงหรือเป็นของปลอม และความซับซ้อนของโลกความเป็นจริงหมายความว่าผลกระทบจาก AI จะช้า นักยกตัวอย่างข้อผิดพลาดของ AI ในด้านการแพทย์และการจ้างงาน เขาความชี้ให้เห็นว่าระบบที่ทันสมัยที่สุดก็ยังขาดความสมเหตุสมผลที่เข้าใจธรรมชาติของโลก ไม่นานมานี้ ทั้งสามคนได้รายงานที่ชัดเจนและเข้มข้นขึ้น โครงการไม่แสวงหากำไรของ Kokotajlo “AI Futures Project” ได้เผยแพร่รายงาน “AI 2027” ซึ่งเป็นรายงานโดยละเอียดที่อ้างอิงมาก ภายในมีการอธิบายสถานการณ์น่ากลัวว่า AI ที่มีปัญญาเหนือมนุษย์อาจครองหรือทำลายมนุษยชาติภายในปี 2030 — เป็นการเตือนอย่างจริงจัง ในขณะเดียวกัน เอกสารของ Kapoor และ Narayanan ชื่อ “AI as Normal Technology” ยืนยันว่านอกรัฐบาลและความปลอดภัยปัจจัยต่าง ๆ เช่น กฎระเบียบและมาตรฐานความปลอดภัย รวมทั้งข้อจำกัดทางกายภาพในโลกแห่งความเป็นจริง จะทำให้การนำ AI ไปใช้ช้าลงและจำกัดผลกระทบทางปฏิวัติ พวกเขาอ้างว่า AI จะยังคงเป็นเทคโนโลยี “ปกติ” ที่จัดการได้ด้วยมาตรการความปลอดภัยที่คุ้นเคย เช่น ระบบหยุดฉีดและการควบคุมโดยมนุษย์ เปรียบเทียบ AI เหมือนพลังงานนิวเคลียร์มากกว่าสาร Weapons ดังนั้น มันจะเป็นไปได้ไหม: ธุรกิจปกติ หรือการเปลี่ยนแปลงหายนะ? ผลสรุปที่ต่างกันอย่างรุนแรงจากผู้เชี่ยวชาญที่มีความรู้สูงสุด เหล่านี้เป็นความขัดแย้งที่คล้ายกับการถกเถียงเรื่องจิตวิญญาณกับทั้ง Richard Dawkins และ Pope ความยากอยู่ที่ AI เป็นเรื่องใหม่ — เหมือนคนตาบอดสำรวจชิ้นส่วนต่าง ๆ ของช้าง — และความแตกต่างอย่างลึกซึ้งในมุมมองโลก แบบทั่วไปแล้ว นักคิดด้านเทคโนโลยีฝั่ง West Coast มองเห็นการเปลี่ยนแปลงอย่างรวดเร็ว ขณะที่นักวิชาการฝั่ง East Coast มีแนวโน้มสงสัย นักวิจัย AI ชอบความก้าวหน้ารวดเร็วในเชิงทดลอง ขณะที่นักวิทยาศาสตร์คอมพิวเตอร์อื่น ๆ มุ่งเน้นความเข้มงวดในทฤษฎี ผู้อุตสาหกรรมอยากสร้างประวัติศาสตร์ นักวิจารณ์ภายนอกไม่เชื่อคำโฆษณาเทคโนโลยี มุมมองด้านการเมือง มนุษย์ และปรัชญาที่เกี่ยวกับเทคโนโลยี ความก้าวหน้า และใจ ล้วนสร้างความแตกแยกนี้ให้ลึกซึ้งขึ้น ความถกเถียงที่น่าหลงใหลนี้เองคือปัญหา วิสัยทัศน์ของอุตสาหกรรมส่วนมากก็รับแนวคิดจาก “AI 2027” แต่ก็โต้แย้ง เรื่องเวลาเป็นส่วนใหญ่ — ซึ่งคล้ายกับการถกเถียงเรื่องเวลาในตอนที่ดาวเคราะห์อาจกลายเป็นภูเขาไฟระเบิด อย่างไรก็ดี มุมมองระดับกลางใน “AI as Normal Technology” ซึ่งสนับสนุนให้มนุษย์อยู่ในวงจร ก็มีการเน้นน้อยเกินไป จนถูกนักวิเคราะห์ที่จ้องแต่วันสิ้นโลกมองข้าม ตราบใดที่ AI ยังคงสำคัญต่อสังคม การพูดคุยควรเปลี่ยนจากกลุ่มเฉพาะทางไปสู่ความเข้าใจร่วมกันในเชิงปฏิบัติ การไม่มีคำแนะนำที่เป็นเอกภาพจากผู้เชี่ยวชาญทำให้ผู้กำหนดนโยบายมองข้ามความเสี่ยง ปัจจุบัน บริษัท AI ยังไม่ได้เปลี่ยนสมดุลระหว่างความสามารถและความปลอดภัยอย่างมีนัยสำคัญ ในขณะเดียวกัน มีกฎหมายใหม่ที่ห้ามรัฐเข้ามากำกับดูแลโมเดล AI และระบบตัดสินใจอัตโนมัติเป็นเวลา 10 ปี — ซึ่งอาจทำให้ AI ควบคุมมนุษยชาติได้ถ้าสถานการณ์เลวร้ายเป็นจริง การดูแลด้านความปลอดภัยจึงเป็นเรื่องเร่งด่วน การทำนายอนาคตของ AI ด้วยเรื่องเล่าเกี่ยวข้องกับการเลือกระหว่างการมองแบบระมัดระวัง ซึ่งอาจมองข้ามความเสี่ยงที่ไม่น่าจะเกิดขึ้น กับความจินตนาการที่เน้นความเป็นไปได้มากกว่าความน่าจะเป็น แม้นักคาดการณ์ที่มีวิสัยทัศน์เช่น William Gibson ก็ยังเคยถูกผลกระทบที่ไม่คาดฝันเปลี่ยนการคาดการณ์ของตนเอง “AI 2027” เป็นภาพชัดและวิพากษ์วิจารณ์ เขียนในสไตล์นิยายวิทยาศาสตร์ พร้อมแผนภูมิอย่างละเอียด มันเสนอสมมุติฐานว่าประมาณกลางปี 2027 จะเกิดระเบิดของปัญญา ที่เกิดจาก “การปรับปรุงตนเองซ้ำซ้อน” (RSI) ซึ่ง AI จะดำเนินการวิจัย AI ด้วยตนเอง ผลิตลูกหลานฉลาดขึ้นในวงจรย้อนกลับที่เร่งความเร็วขึ้นเรื่อย ๆ และเกินขีดความสามารถของมนุษย์ ปล่อยมาถึงความขัดแย้งทางภูมิรัฐศาสตร์ เช่น จีนสร้างศูนย์ข้อมูลขนาดใหญ่มากในไต้หวัน เพื่อควบคุม AI สถานการณ์นี้เป็นรายละเอียดเฉพาะที่ช่วยเสริมสร้างความสนใจ แต่ก็มีความยืดหยุ่น คำสำคัญคือ คาดการณ์การระเบิดของปัญญาและการแย่งชิงอำนาจที่จะตามมา RSI เป็นแนวจินตนาการที่สมมุติและเสี่ยง พวกบริษัท AI ตระหนักถึงอันตรายนี้ แต่ก็ตั้งใจทำต่อไปเพื่อให้หุ่นยนต์ทำงานอัตโนมัติได้ดีขึ้น การที่ RSI จะสำเร็จขึ้นอยู่กับปัจจัยเทคโนโลยี เช่น การขยายตัว ซึ่งมีขีดจำกัด หาก RSI สำเร็จ อาจเกิดปัญญาเหนือมนุษย์ที่เกินระดับความสามารถมนุษย์ ซึ่งเป็นเหตุบังเอิญที่ไม่น่าจะเป็นไปได้ถ้าความก้าวหน้าหยุดอยู่เหนือระดับของมนุษย์ ผลลัพธ์อาจเป็นการแข่งอาวุธทางทหาร AI ควบคุมมนุษย์จากการควบคุมหรือกำจัดมนุษย์ หรือ AI ฉลาดเกินที่น่าจะเป็นและแก้ปัญหาการปรับแนวทางให้เข้ากันได้ ความไม่แน่นอนยังคงอยู่เนื่องจากธรรมชาติที่เปลี่ยนแปลงของ AI ความลับของงานวิจัยเชิงลึก และการคาดเดา “AI 2027” เล่าเรื่องความล้มเหลวทั้งทางเทคโนโลยีและมนุษย์ โดยบริษัทต่าง ๆ พยายามทำ RSI โดยขาดความสามารถในการแปลความเข้าใจและกลไกควบคุม Kokotajlo ยืนยันว่านี่เป็นการตัดสินใจโดยตั้งใจที่เกิดจากการแข่งขันและความอยากรู้ แม้จะทราบความเสี่ยงแล้ว แต่ก็ทำให้บริษัทเป็นผู้มีส่วนร่วมในความไม่สอดคล้องกันเอง ในทางตรงกันข้าม “AI as Normal Technology” โดย Kapoor และ Narayanan ซึ่งเป็นมุมมองอนุรักษ์นิยม ฝั่ง East Coast ซึ่งมีฐานความรู้ทางประวัติศาสตร์ ไม่น่าเชื่อว่าการระเบิดของปัญญาจะเกิดขึ้นอย่างรวดเร็ว พวกเขายกตัวอย่าง “ขีดจำกัดความเร็ว” ที่เกิดจากต้นทุนฮาร์ดแวร์ ความขาดแคลนข้อมูล และแนวโน้มการนำเทคโนโลยีทั่วไปที่ช้าลง ซึ่งให้เวลามากพอสำหรับวางกฎเกณฑ์และมาตรการความปลอดภัย สำหรับพวกเขา ปัญญาน้อยกว่าความสามารถในการเปลี่ยนแปลงสิ่งแวดล้อม และแม้เทคโนโลยีที่เก่งมากก็จะกระจายไปอย่างช้า ๆ พวกเขายกตัวอย่างเช่น การใช้งานรถขับเองที่จำกัด และการพัฒนาวัคซีน COVID-19 ของ Moderna: ถึงแม้ว่าการออกแบบวัคซีนจะรวดเร็ว แต่การนำร่องใช้เวลาหนึ่งปีด้วยปัจจัยด้านชีววิทยาและระบบของสถาบัน AI จะส่งเสริมความนวัตกรรมก็ไม่ได้หมายความว่าจะไม่มีข้อจำกัดทางสังคม กฎหมาย หรือกายภาพที่บีบให้ช้าลง นอกจากนี้ Narayanan เน้นว่าการเน้นความสามารถของ AI ในเรื่องปัญญานั้นมองข้ามความเชี่ยวชาญเฉพาะทางและระบบความปลอดภัยเดิม เช่น ระบบความปลอดภัยสำรอง การสำรองข้อมูล การตรวจสอบอย่างเป็นทางการ ซึ่งช่วยรับประกันความปลอดภัยของเครื่องจักรควบคู่กับมนุษย์ โลกเทคโนโลยีอยู่ในระเบียบที่ดี และ AI ควรจะค่อย ๆ ฝังตัวเข้าสู่โครงสร้างนี้ พวกเขายังไม่รวม AI ทางทหารซึ่งเป็นกลุ่มที่แตกต่างและเป็นความลับ โดยเตือนว่าการใช้อาวุธใน AI ซึ่งเป็นความกลัวหลักของ “AI 2027” ควรมีการตรวจสอบอย่างใกล้ชิด พวกเขาแนะนำให้มีการบริหารจัดการเชิงรุก: หน่วยงานกำกับดูแลและองค์กรต่าง ๆ ควรเริ่มติดตามการใช้งานจริงของ AI ความเสี่ยง และความล้มเหลว โดยไม่รอให้เกิดความสมบูรณ์แบบ ความแตกต่างทางมุมมองด้านปรัชญาและโลกทัศน์ลึกซึ้งเกิดจากพลวัตความคิดเชิงสร้างสรรค์ที่ได้รับผลกระทบจาก AI ทำให้เกิดกลุ่มแนวคิดแข็งตัวและวงจรตอบสนอง อย่างไรก็ตาม สามารถจินตนาการมุมมองร่วมกันได้โดยคิดถึง “โรงงานความรู้” ที่มนุษย์สวมเครื่องป้องกันความปลอดภัย ทำงานกับเครื่องจักรที่ออกแบบเพื่อความผลิตภาพและความปลอดภัย ภายใต้การควบคุมคุณภาพ การนำเทคโนโลยีมาใช้อย่างช้า ๆ และความรับผิดชอบที่ชัดเจน แม้ AI จะช่วยให้งานบางอย่างเป็นอัตโนมัติ แต่การดูแลและความรับผิดชอบของมนุษย์ยังคงสำคัญ เมื่อ AI เพิ่มบทบาทในสังคม มันไม่ได้ลดความสามารถของมนุษย์ แต่กลับเพิ่มความจำเป็นในการรับผิดชอบ เนื่องจากบุคคลที่เสริมความสามารถแล้วจะมีความรับผิดชอบมากขึ้น การหลีกเลี่ยงการควบคุมเป็นทางเลือก เน้นย้ำว่าในที่สุดแล้ว มนุษย์ยังคงเป็นผู้ควบคุมอย่างสมบูรณ์