
หุ่นยนต์สุนัขไล่ตามลูกบอลและเคลื่อนที่ผ่านสิ่งกีดขวางหลังจากเรียนรู้ทักษะจากภาพและวิดีโอที่สร้างขึ้นด้วย AI เกอ หยาง พร้อมกับทีมของเขาที่สถาบันเทคโนโลยีแมสซาชูเซตส์ ได้สร้างแพลตฟอร์มฝึกหัดของพวกเขาที่เรียกว่า "LucidSim" โดยพวกเขาได้พัฒนาซอฟต์แวร์จำลองสถานการณ์ทางคอมพิวเตอร์ที่ใช้กันอย่างแพร่หลาย ซึ่งยึดตามหลักฟิสิกส์ในโลกจริง โดยรวม AI ที่ใช้ปัญญาประดิษฐ์รุ่นใหม่เพื่อสร้างสภาพแวดล้อมจำลองเช่นทางเดินที่มีก้อนหิน

ในเดือนกุมภาพันธ์ 2023 แชทบอทเอไอของ Google ที่ชื่อ Bard ระบุผิดว่า James Webb Space Telescope ถ่ายภาพแรกของดาวเคราะห์นอกระบบสุริยะได้ ส่งผลให้เกิดข้อผิดคล้ายกับข้อผิดพลาดที่พบใน ChatGPT ของ OpenAI ระหว่างการศึกษาของนักวิจัยที่มหาวิทยาลัย Purdue ซึ่งพบว่ามากกว่าครึ่งของคำถามเกี่ยวกับการเขียนโปรแกรมกว่า 500 ข้อนั้นถูกตอบไม่ถูกต้อง แม้ข้อผิดพลาดเหล่านี้ยังสังเกตเห็นได้ชัดเจน ผู้เชี่ยวชาญแสดงความกังวลว่าเมื่อโมเดลเอไอซับซ้อนมากขึ้น จะเป็นการท้าทายที่จะแยกแยะความจริงจากข้อมูลเท็จ Julian Michael จาก NYU เน้นถึงความยากในการดูแลระบบเอไอในด้านเกินขีดความสามารถของมนุษย์ หนึ่งในวิธีแก้ปัญหาที่ถูกเสนอคือการให้สองโมเดลเอไอขนาดใหญ่มาถกเถียงกัน โดยมีโมเดลที่ง่ายกว่าหรือมนุษย์ตัดสินผลที่ถูกต้องกว่า แนวคิดนี้เกิดขึ้นครั้งแรกเมื่อหกปีที่แล้ว อย่างไรก็ตาม การศึกษาใหม่ ๆ โดย Anthropic และ Google DeepMind ได้เสนอหลักฐานทางประจักษ์เบื้องต้นว่าการดีเบตของ LLM สามารถช่วยแยกแยะความจริงได้ การสร้างระบบเอไอที่น่าเชื่อถือเป็นส่วนหนึ่งของการจัดแนวที่ทำให้เอไอมีค่านิยมร่วมกับมนุษย์ การจัดแนวปัจจุบันพึ่งการตอบรับจากมนุษย์ แต่การกำกับดูแลในระดับที่ขยายออกไป ซึ่งทำให้มั่นใจในความถูกต้องของเอไอเกินขีดความสามารถของมนุษย์นั้นมีความจำเป็นเมื่อเอไอก้าวหน้า การดีเบตซึ่งเริ่มสำรวจตั้งแต่ปี 2018 ถูกพิจารณาว่าเป็นวิธีจัดการการกำกับดูแลที่ขยายออกไป ในตอนแรกได้เสนอโดย Geoffrey Irving ที่ OpenAI เทคนิคนี้เกี่ยวข้องกับการที่โมเดลเอไอสองโมเดลถกเถียงคำถามเพื่อชักจูงผู้ตัดสินภายนอกให้เห็นด้วยถึงความถูกต้องของพวกมัน แม้ว่าการทดสอบขั้นพื้นฐานในปี 2018 จะชี้ว่าการดีเบตอาจใช้ได้ แต่ความตระหนักถึงแนวโน้มมนุษย์ต่อการตัดสินจากมุมมองส่วนตัวและความแตกต่างในความสามารถการประเมินยังคงเป็นความกังวล นักวิจัยอย่าง Amanda Askell โต้แย้งว่าการเข้าใจการตัดสินใจของมนุษย์เป็นสิ่งจำเป็นในการทำให้เอไอจัดแนวกับค่านิยมของมนุษย์อย่างมีประสิทธิภาพ แม้ว่าผลเบื้องต้นจะไม่แน่ชัด การศึกษาใหม่แสดงถึงศักยภาพ การศึกษาของ Anthropic ชี้ว่าการดีเบตของ LLM ช่วยเพิ่มความแม่นยำของผู้ตัดสินที่ไม่ใช่ผู้เชี่ยวชาญอย่างมีนัยสำคัญ เพิ่มขึ้นเป็น 76% จาก 54% การทดลองที่คล้ายกันของ Google DeepMind ยืนยันว่าการดีเบตนำไปสู่การเพิ่มความแม่นยำในงานที่หลากหลาย Zachary Kenton ระบุว่าการเห็นทั้งสองฝ่ายให้ข้อมูลมากขึ้นแก่ผู้ตัดสิน ส่งเสริมข้อสรุปที่แม่นยำกว่า อย่างไรก็ตาม ยังมีความท้าทาย เช่น การมีอิทธิพลของลักษณะการดีเบตที่ไร้สาระและอคติเช่นการตามใจที่เอไออาจสะท้อนความชอบของผู้ใช้อย่างไม่ถูกต้อง นอกจากนี้ คำตอบที่ถูกหรือผิดในปัจจุบันอาจไม่สามารถแปลไปสู่สถานการณ์จริงที่ซับซ้อนและละเอียดอ่อนได้ การเข้าใจพฤติกรรมเอไอและการระบุว่าเอไอมีความรู้เกินกว่าผู้ตัดสินมนุษย์ในด้านใดเป็นสิ่งสำคัญสำหรับการพัฒนาต่อเนื่องและการประยุกต์ใช้วิธีการเหล่านี้ดังที่ Irving ระบุ แม้จะมีอุปสรรคเหล่านี้ ความสำเร็จทางประจักษ์ของการดีเบตก็แสดงถึงความก้าวหน้าที่มีศักยภาพในการปรับปรุงความน่าเชื่อถือและการจัดแนวเอไอ

ในปี 2020 เมื่อโจ ไบเดนขึ้นเป็นประธานาธิบดี AI สร้างสรรค์ยังอยู่ในช่วงที่เริ่มต้น โดยเทคโนโลยีอย่าง DALL-E และ ChatGPT ยังไม่มีผลกระทบอย่างมีนัยสำคัญ สี่ปีต่อมา AI ได้พัฒนาอย่างรวดเร็ว ก่อให้เกิดความท้าทายต่อผู้วางนโยบาย เนื่องจากความก้าวหน้าที่รวดเร็วของ AI และการพัฒนานโยบายที่ล่าช้า เมื่อรัฐบาลเปลี่ยน แรงจูงใจก็เปลี่ยนไป ทำให้การออกกฎระเบียบเกี่ยวกับ AI ซับซ้อนขึ้น ภายใต้การบริหารของทรัมป์ นโยบาย AI ยังไม่แน่นอนเพราะวอชิงตันยังไม่ได้มีการแยกขั้วอย่างเต็มที่ในประเด็น AI ผู้สนับสนุนทรัมป์มีตั้งแต่ผู้ที่คัดค้านการออกกฎระเบียบ เช่น มาร์ค อันเดรียสเซน ไปจนถึงคนอื่น ๆ อย่างอีลอน มัสก์ ที่สนับสนุนการออกกฎเพื่อบรรเทาความเสี่ยงที่มีอยู่จริง นโยบาย AI ของทรัมป์อาจเปลี่ยนไปตามอิทธิพลของที่ปรึกษาของเขา และรัฐบาลของเขาต้องการยกเลิกคำสั่งบริหารปี 2023 ของไบเดนเกี่ยวกับ AI แต่ยังไม่ชัดเจนว่าจะแทนที่ด้วยอะไร การอภิปรายเกี่ยวกับนโยบาย AI เผยให้เห็นถึงความแตกต่างทางด้านขวามือ โดยบางคนเร่งให้มีการพัฒนา AI อย่างรวดเร็ว ในขณะที่คนอื่นแสดงความระมัดระวัง คำพูดของทรัมป์สะท้อนถึงความจำเป็นที่จะต้องเป็นผู้นำทางเทคโนโลยีเหนือจีน และการยอมรับถึงความเสี่ยงที่ AI อาจเกิดขึ้น ผู้เชี่ยวชาญหลายคนเห็นพ้องว่า AI เป็นภัยคุกคามที่มีนัยสำคัญ แม้ว่าจะขาดความเห็นพ้องต้องกันในเรื่องการดำเนินการด้านนโยบาย ถึงแม้ว่าจะมีการเห็นพ้องกันระหว่างพรรคเกี่ยวกับประเด็น AI บางประเด็น แต่การแบ่งขั้วทางการเมืองอาจขัดขวางการทำกฎระเบียบที่มีประสิทธิภาพ ทั้งพรรคเดโมแครตและรีพับลิกันต่างเห็นพ้องที่จะหลีกเลี่ยงความด้อยกว่าทางการทหารและป้องกันการพัฒนาเทคโนโลยีที่เป็นอันตรายอย่างไม่ควบคุม ผลลัพธ์ที่เหมาะสมที่สุดคือการเข้าหาประเด็น AI อย่างเป็นสุดขั้วระหว่างพรรคมุ่งสู่เป้าหมายร่วมกัน เช่น การป้องกันสถานการณ์เลวร้ายกับ AI ที่มีความฉลาดสูง แทนที่จะเป็นการแบ่งพรรคที่กว้างขวางซึ่งทำให้ประเด็นที่ซับซ้อนเป็นเรื่องง่าย ซามูเอล แฮมมอนด์ยังคงมองในแง่ดีเกี่ยวกับความสนใจของรัฐบาลต่อความท้าทายสำคัญๆ ของ AI แม้ว่าการออกนโยบายที่เหมาะสมจะยังไม่ชัดเจน

Microsoft กำลังแนะนำธีมใน Outlook ที่ขับเคลื่อนด้วย AI เรียกว่า "Themes by Copilot" ฟีเจอร์ใหม่นี้ต้องการสิทธิ์ Copilot Pro หรือสิทธิ์ธุรกิจเพื่อให้รูปลักษณ์ที่เป็นส่วนตัวมากขึ้นแก่ Outlook ธีมเหล่านี้มีให้ใช้บน Windows, macOS, iOS, Android และเว็บ โดยมีเป้าหมายที่จะทำให้ Outlook "สวยงามและเข้าถึงได้ง่ายยิ่งขึ้น" ตามคำกล่าวของ Microsoft ผู้ใช้สามารถสร้างธีมตามสภาพอากาศหรือสถานที่ซึ่งสามารถอัปเดตโดยอัตโนมัติทุกไม่กี่ชั่วโมง, รายวัน, รายสัปดาห์ หรือรายเดือน เมื่ออนุญาตให้ใช้ตำแหน่งที่ตั้ง ธีม My Location จะมีภาพที่ได้รับแรงบันดาลใจจากท้องที่ของคุณและจะปรับปรุงขณะคุณเดินทาง แต่ละธีมที่สร้างโดย AI ประกอบด้วยวอลเปเปอร์เดสก์ท็อป หรือส่วนบนสำหรับแอพบน iOS และ Android พร้อมด้วยสีเน้นสำหรับอินเตอร์เฟซของ Outlook Microsoft ยังเปิดตัวชุดธีมที่ไม่ใช้ AI สำหรับผู้ใช้ที่ไม่มีใบอนุญาต Copilot ซึ่งรวมถึงธีมสีเขียว แดง และม่วงที่มีให้บนเว็บ, พีซี, Mac และมือถือ สมัครสมาชิก Notepad โดย Tom Warren จดหมายข่าวรายสัปดาห์ที่สำรวจกลยุทธ์ของ Microsoft ใน AI, เกม, และการคอมพิวติ้ง ในราคา $7/เดือน หรือ $70/ปี เดือนแรกฟรี มีแพ็คเกจรวมกับ Command Line ที่มีราคา $100/ปี ตัวเลือกการชำระเงินรวมถึงบัตรเครดิต, Apple Pay, และ Google Pay

สตาร์ทอัพ AI ของฝรั่งเศส Mistral AI เปิดตัว API การควบคุมเนื้อหาใหม่เมื่อวันพฤหัสบดี โดยมีเป้าหมายท้าทาย OpenAI และผู้นำ AI อื่น ๆ ในขณะที่ตอบสนองต่อความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI บริการนี้ใช้โมเดล Ministral 8B ที่พัฒนาขึ้นของ Mistral เพื่อระบุเนื้อหาที่อาจเป็นอันตรายใน 9 ประเภท เช่น เนื้อหาทางเพศ คำพูดแสดงความเกลียดชัง ความรุนแรง และข้อมูลส่วนบุคคล และสามารถวิเคราะห์ได้ทั้งข้อความและการสนทนา "ความปลอดภัยคือหัวใจสำคัญของการทำให้ AI เป็นประโยชน์" ทีมงานของ Mistral กล่าว "เรามองว่าการสร้างกฎระเบียบในระดับระบบเป็นสิ่งจำเป็นในการป้องกันการใช้งานที่ปลายน้ำ" ด้วยความสามารถในการควบคุมเนื้อหาหลายภาษา Mistral มีความพร้อมที่จะสามารถแข่งขันกับ OpenAI การเปิดตัวนี้เกิดขึ้นในขณะที่อุตสาหกรรม AI กำลังเผชิญกับแรงกดดันในการเสริมสร้างการป้องกันเทคโนโลยี เมื่อเร็ว ๆ นี้ Mistral และบริษัท AI อื่น ๆ ได้ลงนามในข้อตกลงการประชุมสุดยอดด้านความปลอดภัย AI ของสหราชอาณาจักร เพื่อพัฒนาการใช้งาน AI ที่รับผิดชอบ API นี้ถูกผนวกเข้าในแพลตฟอร์ม Le Chat ของ Mistral เรียบร้อยแล้ว รองรับ 11 ภาษา รวมถึงภาษาอาหรับ ภาษาจีน และภาษาสเปน ทำให้มีความได้เปรียบเหนือคู่แข่งที่มุ่งเน้นไปที่เนื้อหาภาษาอังกฤษเป็นหลัก "ความสนใจในระบบการควบคุมที่ใช้ LLM กำลังเติบโต ทำให้เกิดตัวเลือกที่ขยายได้และแข็งแกร่งในหลายแอปพลิเคชัน" บริษัทกล่าว อิทธิพลของ Mistral ใน AI สำหรับองค์กรกำลังเพิ่มขึ้นผ่านการร่วมมือกับพันธมิตรรายใหญ่ เช่น Microsoft Azure, Qualcomm และ SAP ซึ่งช่วยเสริมความแข็งแกร่งในตลาด AI สำหรับองค์กร SAP มีแผนจะโฮสต์โมเดลของ Mistral รวมถึง Mistral Large 2 บนโครงสร้างพื้นฐานของตน เพื่อเสนอ AI ที่ปลอดภัยและปฏิบัติตามกฎระเบียบของยุโรป Mistral โดดเด่นด้วยการมุ่งเน้นที่การประมวลผลที่ไม่พึ่งพาคลาวด์และฟีเจอร์ความปลอดภัยที่ครอบคลุม แตกต่างจากโซลูชั่นที่ใช้คลาวด์ของ OpenAI และ Anthropic การใช้ AI บนอุปกรณ์และการควบคุมของ Mistral ตอบสนองต่อความกังวลเรื่องความเป็นส่วนตัวของข้อมูล การหน่วงเวลา และความสอดคล้องกับข้อบังคับ ทำให้ดึงดูดความสนใจของบริษัทในยุโรปที่เผชิญกับข้อบังคับที่เข้มงวดเกี่ยวกับข้อมูล ด้วยความซับซ้อนทางเทคนิค โมเดลของ Mistral ไปไกลกว่าการวิเคราะห์ข้อความแยกส่วนเพื่อทำความเข้าใจบริบทของการสนทนา จับเนื้อหาที่เป็นอันตรายที่ซับซ้อนซึ่งตัวกรองที่ง่ายกว่าอาจมองข้าม API การควบคุมนั้นพร้อมใช้งานทันทีผ่านแพลตฟอร์มคลาวด์ของ Mistral โดยมีการคิดราคาใช้งานตามการใช้งาน บริษัทวางแผนที่จะมีการปรับปรุงอย่างต่อเนื่องตามความคิดเห็นของลูกค้าและข้อกำหนดด้านความปลอดภัยที่เปลี่ยนแปลงไป การปรากฏตัวของ Mistral ชี้ให้เห็นถึงภูมิทัศน์ที่เปลี่ยนแปลงอย่างรวดเร็วของ AI เพียงปีเดียวที่ผ่านมา สตาร์ทอัพที่ตั้งอยู่ในปารีสนี้ยังไม่มีอยู่จริง ตอนนี้กำลังมีอิทธิพลต่อมุมมองขององค์กรที่มีต่อความปลอดภัยของ AI ในภาคส่วนที่นำโดยยักษ์ใหญ่อเมริกัน การให้ความสำคัญกับความเป็นส่วนตัวและความปลอดภัยในยุโรปของ Mistral อาจเป็นข้อได้เปรียบหลักของบริษัท

ผู้ก่อตั้งและซีอีโอของ NVIDIA Jensen Huang จะเข้าร่วมสนทนาแบบเปิดกับประธานและซีอีโอของ SoftBank Group Masayoshi Son ในงานประชุมสุดยอด AI ของ NVIDIA ที่ญี่ปุ่น โดยหัวข้อจะเกี่ยวกับบทบาทการเปลี่ยนแปลงของ AI และหัวข้ออื่นๆ งานนี้กำหนดจัดขึ้นในวันที่ 12-13 พฤศจิกายน เป็นงานที่เชิญเฉพาะผู้ที่ได้รับเท่านั้น จัดขึ้นที่ The Prince Park Tower ในเขตมินาโตะของโตเกียว ซึ่งจะรวบรวมผู้นำอุตสาหกรรมเพื่อสำรวจพัฒนาการในด้าน AI เชิงกำเนิด หุ่นยนต์ และการทำให้เป็นดิจิทัลในอุตสาหกรรม แม้ว่าตั๋วจะขายหมดแล้ว แต่คุณสามารถเข้าชมได้ผ่านการสตรีมสดหรือดูช่วงบันทึกตามความต้องการ มีช่วงการสนทนาและการสาธิตสดกว่า 50 ช่วง ที่จะแสดงนวัตกรรมจาก NVIDIA และพันธมิตร ครอบคลุมทุกอย่างตั้งแต่แบบจำลองภาษาขนาดใหญ่ (LLMs) ไปจนถึงหุ่นยนต์ที่ใช้ AI และฝาแฝดดิจิทัล Huang และ Son จะเน้นบทบาทการเปลี่ยนแปลงของ AI และความพยายามในการขับเคลื่อนด้าน AI Son ผ่านกองทุน SoftBank Vision ได้ลงทุนในบริษัทระดับโลกที่มีศักยภาพการเติบโตที่ขับเคลื่อนด้วย AI ขณะที่ Huang ได้กำกับดูแลการก้าวขึ้นของ NVIDIA สู่ตำแหน่งนำใน AI และการคอมพิวติ้งแบบเร่ง หัวข้อสำคัญคือโครงสร้างพื้นฐาน AI ของญี่ปุ่น ที่สนับสนุนโดย NVIDIA และบริษัทท้องถิ่น ซึ่งเป็นสิ่งสำคัญต่อเป้าหมาย AI ของประเทศ ผู้นำจาก METI และผู้เชี่ยวชาญอย่าง Shunsuke Aoki จาก Turing Inc

ในขณะที่ AI แบบเกิดใหม่และโมเดลภาษาขนาดใหญ่ถูกโปรโมทให้เป็นตัวแทนของพนักงานบางประเภท บริษัทที่ใช้นวัตกรรมนี้มักพบว่ามีปัญหาเกิดขึ้นมากกว่าที่จะช่วยแก้ไข หากให้อำนาจควบคุมโดยไม่มีการจำกัด ถึงแม้จะไม่เสมอไปก็ตาม แต่การใช้งานที่ดีที่สุดในปัจจุบันสำหรับเครื่องมือเหล่านี้คือเป็นผู้ช่วยสำหรับงานที่เฉพาะเจาะจง ที่สามารถทำได้อย่างมีประสิทธิภาพในบทบาทนี้ ดังที่ [Ricardo] แสดงให้เห็นโดยการใช้ Amazon Q เพื่อช่วยในการพัฒนาเกมบน Commodore 64 เริ่มต้นด้วยการสร้างโค้ดเพื่อเคลื่อนย้ายสไปรท์บนหน้าจอ ในตอนแรก AI สร้างโค้ดที่เป็นตัวอักษรพิมพ์ใหญ่ทั้งหมดซึ่งสะท้อนถึงสไตล์ของ C64 แต่ทำให้เกิดปัญหาสำคัญในสภาพแวดล้อมการพัฒนาของ [Ricardo] จึงจำเป็นต้องแปลงเป็นตัวพิมพ์เล็ก การเปลี่ยนแปลงที่น่าทึ่งยิ่งกว่านั้นเกิดขึ้นเมื่อจำเป็นต้องใช้ประสิทธิภาพของภาษาแอสเซมบลี แปลงเป็น 6502 Assembly สำหรับ Commodore เสมือน [Ricardo] ทดลองกับ AI หลายครั้งจนสามารถแสดงสไปรท์สี่ตัวที่เคลื่อนที่บนหน้าจอและเปลี่ยนการออกแบบสไปรท์ไปเป็นสไตล์ที่เลือกสุ่มได้สำเร็จ
- 1