องค์กรเพื่อเสรีภาพสื่อมวลชน Reporters Without Borders ได้เรียกร้องให้ Apple นำฟีเจอร์ AI ใหม่ที่สรุปข่าวออก หลังจากที่ AI ได้สร้างพาดหัวข่าวเท็จจาก BBC โดยข้อโต้แย้งเกิดขึ้นเมื่อ Apple Intelligence ส่งการแจ้งเตือนที่สรุปข่าวของ BBC อย่างไม่ถูกต้อง โดยกล่าวว่า Luigi Mangione ผู้ต้องสงสัยในคดีฆาตกรรม CEO ของ UnitedHealthcare ได้ยิงตัวเอง BBC ได้ติดต่อ Apple เพื่อแก้ไขข้อผิดพลาดและแก้ไขปัญหา แต่ยังไม่ชัดเจนว่า Apple ได้ตอบกลับหรือไม่ Vincent Berthier หัวหน้าเทคโนโลยีและการสื่อสารของ Reporters Without Borders ได้กระตุ้นให้ Apple ดำเนินการอย่างมีความรับผิดชอบโดยการยกเลิกฟีเจอร์ดังกล่าว Berthier เน้นย้ำว่า AI ไม่ควรจัดการกับข้อเท็จจริง เนื่องจากเสี่ยงต่อการเผยแพร่ข้อมูลที่ผิดพลาดและบ่อนทำลายความเชื่อมั่นของสาธารณะต่อสื่อ กลุ่มที่สนับสนุนนักข่าวแสดงความกังวลเกี่ยวกับความเสี่ยงของเครื่องมือ AI ต่อต่อสื่อ โดยระบุว่าเหตุการณ์เช่นนี้แสดงให้เห็นถึงความไม่น่าเชื่อถือของ AI สำหรับข้อมูลสาธารณะ พวกเขาโต้เถียงว่าธรรมชาติที่มีความน่าจะเป็นของ AI ทำให้มันไม่เหมาะสมกับการประยุกต์ใช้ในสื่อข่าว ในทางกลับกัน BBC ได้เน้นความสำคัญของการรักษาความเชื่อมั่นของผู้ชมในข้อมูลที่เชื่อมต่อกับชื่อของพวกเขา รวมถึงการแจ้งเตือนด้วย Apple ยังไม่ได้แสดงความคิดเห็นในประเด็นนี้ Apple เปิดตัวเครื่องมือ AI แบบสร้างในสหรัฐอเมริกาในเดือนมิถุนายน โดยโปรโมทว่าเป็นเครื่องมือสำหรับสรุปเนื้อหาในรูปแบบสั้น ๆ ต่าง ๆ ฟีเจอร์นี้มีจุดประสงค์เพื่อการบริโภคข่าวที่ง่ายขึ้นโดยให้ผู้ใช้รวบรวมการแจ้งเตือนผ่านอุปกรณ์ Apple สร้างการแจ้งเตือนเดียวที่มีข่าวหลายรายการ นับตั้งแต่การเปิดตัวฟีเจอร์สู่สาธารณะในช่วงปลายเดือนตุลาคม ผู้ใช้รายงานข้อผิดพลาดอีกครั้ง: การสรุปที่ผิดพลาดระบุว่านายกรัฐมนตรีเบนจามิน เนทันยาฮู ของอิสราเอลถูกจับกุม แทนที่จะเป็นแค่เผชิญกับหมายจับจากศาลอาญาระหว่างประเทศ ข้อผิดพลาดเหล่านี้ชี้ให้เห็นถึงความท้าทายของ Apple Intelligence ที่สำนักข่าวไม่มีการควบคุมการสรุปข่าวที่ AI สร้าง ซึ่งอาจเผยแพร่ข้อมูลที่ผิดพลาดและทำลายเครดิตของพวกเขา
ปัญญาประดิษฐ์เชิงปฏิบัติ (Agentic AI) กำลังพานวัตกรรมปัญญาประดิษฐ์ไปสู่ระดับใหม่ที่เกินกว่า AI เชิงสร้างสรรค์ (Generative AI) แบ่งปันลักษณะและความท้าทายที่คล้ายคลึงกัน แต่มีความแตกต่างที่ชัดเจน ซีอีโอของ Salesforce Marc Benioff อธิบายว่า Agentic AI เป็น "คลื่นลูกที่สาม" ในการวิวัฒนาการของ AI ที่ตามหลังโมเดลพยากรณ์และ AI เชิงสร้างสรรค์ เช่น ChatGPT คลื่นใหม่นี้เกี่ยวข้องกับตัวแทนที่ชาญฉลาดระดับสูงที่สามารถดำเนินการงานที่ซับซ้อนได้อย่างอัตโนมัติ AI ตัวแทนเหล่านี้ทำงานเป็นผู้ร่วมงานหรือผู้ช่วยดิจิทัล เพิ่มขีดความสามารถของมนุษย์ในลักษณะที่ไม่เคยคิดว่าจะเป็นไปได้มาก่อน พวกเขาสามารถจัดการกับการปฏิสัมพันธ์กับลูกค้า วิเคราะห์ข้อมูล และดำเนินงานอย่างเป็นอิสระในเวลาจริง มอบขีดความสามารถและผลตอบแทนจากการลงทุนที่ AI แบบทั่วไปไม่สามารถให้ได้ ผู้นำในอุตสาหกรรมอย่าง Sesh Iyer แห่ง BCG X ยอมรับว่า Agentic AI เป็นวิธีการออกแบบกระบวนการใหม่เพื่อเพิ่มผลิตภาพ อย่างไรก็ตาม Agentic AI ต้องการแนวทางจริยธรรมที่ชัดเจนและการยึดถือมาตรฐานการปฏิบัติที่รับประกันการปฏิบัติตามกฎและความยุติธรรม การพัฒนาและการจัดการ AI ตัวแทนต้องการทักษะที่เหมาะสม ซึ่งส่วนใหญ่มักมีอยู่ในองค์กร แต่ยังจำเป็นต้องพัฒนาทักษะเพิ่มเติม ต่างจาก AI เชิงสร้างสรรค์ซึ่งใช้ในอุตสาหกรรมที่หลากหลาย Agentic AI มุ่งเน้นเฉพาะสภาพแวดล้อม เจริญในงานที่สามารถคาดการณ์ได้โดยมีความเสี่ยงต่อความผิดพลาดต่ำ มันเกี่ยวข้องกับการบูรณาการที่ซับซ้อนกับระบบที่มีอยู่ และต้องการปรับปรุงเพื่อเสริมการตัดสินใจ เพื่อเปลี่ยนจาก AI เชิงสร้างสรรค์มาเป็น Agentic AI ธุรกิจควรเริ่มเล็ก ๆ ระบุกรณีการใช้งานที่มีผลกระทบสูง และดำเนินโครงการนำร่อง ควรเน้นที่การเปลี่ยนแปลงกระบวนการทำงานเพื่อลดงานที่ซ้ำซากและเพิ่มความร่วมมือระหว่างมนุษย์และเครื่องจักร มีความท้าทายในการประยุกต์ใช้ Agentic AI ในสภาพแวดล้อมที่ไม่แน่นอนและมีความเสี่ยงสูง เช่น R&D หรือการพัฒนาเภสัชกรรม ที่ต้องการความเข้าใจอย่างละเอียด ข้อมูลเรียลไทม์เป็นสิ่งสำคัญสำหรับความสำเร็จของ Agentic AI ความจำเป็นสำหรับระบบการทดสอบและข้อมูลที่มีป้ายกำกับชัดเจนที่แสดงถึงปัญหาในการพัฒนา AI ตัวแทนที่มีประสิทธิภาพ เมื่อความพึ่งพา Agentic AI เพิ่มขึ้น เฟรมเวิร์คการกำกับดูแลใหม่จะมีความจำเป็น โดยเฉพาะในพื้นที่ที่มีเดิมพันสูง เน้นความสำคัญของการดูแลมนุษย์เพื่อลดผลกระทบที่ไม่ได้ตั้งใจ
ในเดือนพฤษภาคม 2020 บริษัท Thomson Reuters ซึ่งเป็นกลุ่มธุรกิจสื่อและเทคโนโลยี ได้ยื่นฟ้อง Ross Intelligence ซึ่งเป็นบริษัทสตาร์ทอัพเล็กๆ ที่พัฒนา AI ด้านกฎหมาย ข้อกล่าวหาคือ Ross Intelligence ละเมิดกฎหมายลิขสิทธิ์ของสหรัฐอเมริกาโดยใช้วัสดุจาก Westlaw ซึ่งเป็นบริการค้นคว้ากฎหมายของ Thomson Reuters ในขั้นแรก กรณีนี้ได้รับความสนใจน้อยนอกเหนือจากชุมชนที่เน้นกฎหมายลิขสิทธิ์ แต่ในปัจจุบันเห็นได้ชัดว่าการฟ้องร้องนี้ซึ่งเริ่มต้นก่อนที่ AI เชิงสร้างสรรค์จะเพิ่มขึ้นเป็นสองปี เป็นการเคลื่อนไหวล่วงหน้าในความขัดแย้งที่กว้างขึ้นระหว่างผู้จัดพิมพ์และบริษัท AI ซึ่งขณะนี้กำลังเกิดขึ้นในศาลทั่วประเทศ การแก้ไขความขัดแย้งนี้อาจกำหนดนิยามใหม่เกี่ยวกับข้อมูลและภาค AI ซึ่งส่งผลกระทบต่อผู้ใช้อินเทอร์เน็ตทั่วโลก ในช่วงสองปีที่ผ่านมา มีการยื่นฟ้องคดีลิขสิทธิ์ที่คล้ายคลึงกันหลายคดีต่อบริษัท AI โจทก์รวมถึงนักเขียนอย่าง Sarah Silverman และ Ta Nehisi-Coates, ศิลปินด้านทัศนศิลป์, สื่อมวลชนอย่าง The New York Times และยักษ์ใหญ่ในอุตสาหกรรมดนตรีอย่าง Universal Music Group สิ่งเหล่านี้อ้างว่าบริษัท AI ใช้เนื้อหาของพวกเขาในการฝึกอบรมโมเดล AI ที่มีมูลค่าในเชิงพาณิชย์ ซึ่งเปรียบเสมือนการขโมย บริษัท AI มักปกป้องตัวเองด้วยหลักการ "การใช้งานที่เป็นธรรม" โดยอ้างว่าการพัฒนาเครื่องมือ AI เป็นการใช้เนื้อหาที่มีลิขสิทธิ์โดยชอบธรรมโดยไม่ต้องขออนุญาตหรือจ่ายค่าตอบแทน (ตัวอย่างทั่วไปของการใช้งานที่เป็นธรรมคือการล้อเลียน การรายงานข่าว และการศึกษาทางวิชาการ) บริษัท AI เชิงสร้างสรรค์ที่มีชื่อเสียง อย่าง OpenAI, Meta, Microsoft, Google, Anthropic และ Nvidia กำลังเกี่ยวข้องกับการต่อสู้ทางกฎมายนี้ WIRED กำลังติดตามความคืบหน้าของคดีเหล่านี้อย่างใกล้ชิด เราได้พัฒนาสื่อภาพช่วยติดตามและเข้าใจว่าบริษัทและผู้ถือสิทธิใดที่มีส่วนร่วมในกรณีเหล่านี้ พื้นที่ที่มีการยื่นฟ้อง คำกล่าวหาเป็นอย่างไร และข้อมูลสำคัญอื่นๆ
ตั้งแต่เริ่มมีอินเทอร์เน็ต เราได้เห็นเทคโนโลยีและแนวโน้มหลากหลาย เช่น การถอดรหัสจีโนม การพิมพ์ 3 มิติ บล็อกเชน กัญชา และเมตาเวิร์ส ซึ่งแต่ละอย่างเผชิญกับความคาดหวังในระยะเริ่มต้น ตามมาด้วยการลดลงของมูลค่าอันเนื่องมาจากการประมาณอัตราการนำไปใช้ที่เกินจริง ปัญญาประดิษฐ์ (AI) อาจเดินตามเส้นทางเดียวกันนี้หากไม่ได้รับเวลาให้เติบโต โดยเฉพาะอย่างยิ่งเมื่อธุรกิจหลายแห่งขาดแผนการที่ชัดเจนสำหรับการนำ AI ไปใช้และทำกำไร ซึ่งแสดงถึงฟองสบู่ที่อิงการเก็งกำไร ปัญหาหนึ่งที่อาจทำให้ฟองสบู่ AI แตกในปี 2025 คือการคาดหมายว่าการขาดแคลน GPU จะคลี่คลาย ซึ่งได้นำให้หุ้นของ Nvidia ทะยานขึ้น Nvidia ได้ใช้ประโยชน์จากการขาดแคลนนี้โดยการเพิ่มราคาฮาร์ดแวร์ให้สูงขึ้น จึงเพิ่มกำไรของตัวเอง แต่ความได้เปรียบนี้น่าจะลดลงเมื่อคู่แข่งอย่าง AMD เริ่มผลิตมากขึ้น และลูกค้าหลายรายเริ่มพัฒนา AI-GPU ของตัวเอง ซึ่งแม้จะไม่ทรงพลังเท่า แต่จะมีราคาถูกและเข้าถึงได้มากกว่า นโยบายการกำกับดูแลของสหรัฐฯ อาจขัดขวางเส้นทางการเติบโตของ AI ได้เช่นกัน รัฐบาลของ Biden ได้กำหนดข้อจำกัดในการส่งออกชิพ AI ไปยังจีน ซึ่งส่งผลกระทบต่อบริษัทอย่าง Nvidia และ Lam Research ที่มีรายได้รายใหญ่เกี่ยวข้องกับจีน นโยบายนี้ไม่น่าจะเปลี่ยนแปลงภายใต้ประธานาธิบดีที่ได้รับเลือกตั้งอย่าง Trump ซึ่งอาจทำให้ความสัมพันธ์การค้าแย่ลงและส่งผลต่อยอดขาย AI ไปยังจีนพร้อมภาษีศักยภาพ ยิ่งไปกว่านั้น การประเมินมูลค่าหุ้น AI ในปัจจุบันสูงมาก จนสะท้อนถึงระดับความไม่ยั่งยืนเช่นเดียวกับในอดีตก่อนฟองสบู่ดอทคอมแตก เช่น Amazon และ Cisco Systems เคยมีราคาหุ้นสูงถึง 30-40 เท่าของยอดขาย ปัจจุบัน Nvidia และ Palantir มีการประเมินมูลค่าที่สูงเกินจริง ซึ่งแสดงถึงโอกาสการปรับมูลค่าใหม่หากความตื่นเต้นของนักลงทุนลดลง สุดท้าย The Motley Fool แนะนำให้ระมัดระวังกับหุ้นของ Nvidia โดยชี้ให้เห็นว่าทีมผู้เชี่ยวชาญด้านหุ้นของพวกเขาพบโอกาสการลงทุนที่ดีกว่าซึ่งมีศักยภาพในการให้ผลตอบแทนสูง คำแนะนำของพวกเขาได้รับผลตอบแทนที่สูงกว่า S&P 500 อย่างมากตั้งแต่ปี 2002 เน้นให้เห็นถึงความสำคัญของการเลือกหุ้นอย่างรอบคอบท่ามกลางสภาพตลาดที่เก็งกำไร
ฉันได้สำรวจศักยภาพการบำบัดของ ChatGPT โดยการใช้ Therapist GPT ที่ผู้ใช้งานสร้างขึ้น ซึ่งให้การรับฟังและคำแนะนำที่ปลอบโยน แม้ว่าจะไม่สามารถทดแทนการบำบัดโดยมืออาชีพได้ ผู้ใช้โซเชียลมีเดียหลายคน เช่น มายา ดันแฮม ใช้แชทบอทเพื่อค้นหามุมมองใหม่ ๆ และแบ่งปันความรู้สึกของตน โดยให้ความสำคัญกับการปฏิสัมพันธ์ที่ปราศจากการตัดสินและเข้าถึงได้ง่ายของ AI งานวิจัยบางชิ้นระบุว่าแชทบอทสามารถช่วยเรื่องสุขภาพจิตที่ไม่รุนแรงได้ แต่นักวิชาการอย่าง Dr.
Google ได้เปิดตัวโมเดล AI ใหม่ที่มุ่งเน้นด้าน "การให้เหตุผล" แต่ยังคงอยู่ในช่วงทดลองและดูเหมือนจะต้องการการปรับปรุงตามการทดสอบเบื้องต้น โมเดลนี้มีชื่อว่า Gemini 2
เมื่อใกล้ถึงสิ้นปี 2024, First Opinion กำลังเผยแพร่บทความเกี่ยวกับ AI ในการแพทย์และชีวเภสัชกรรม ในเหตุการณ์ล่าสุด มีบุคคลสองรายพยายามลอบสังหารอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ทำให้เกิดความกังวลเกี่ยวกับบทบาทของเครื่องมือ AI เช่น เครื่องมือค้นหาและแชทบอทในการช่วยกิจกรรมอาชญากรรม เครื่องมือ AI เหล่านี้เริ่มถูกผนวกเข้ากับฟังก์ชันการค้นหาเพิ่มมากขึ้น อาจช่วยผู้ร้ายในแผนการโจมตีในอนาคต ต่างจากเครื่องมือค้นหาทั่วไป แชทบอทสามารถค้นหาอย่างลึกซึ้งและมีปฏิสัมพันธ์เฉพาะบุคคล ทำให้พวกมันควรต้องรับรู้ถึงวิกฤตสุขภาพจิตและความตั้งใจในการฆ่าและตอบสนองอย่างปลอดภัย เหตุการณ์ล่าสุดมีการวิเคราะห์ปฏิสัมพันธ์ของผู้ต้องสงสัยกับ AI แสดงให้เห็นความเข้าใจที่ลึกซึ้งกว่าคำค้นหาที่คงที่ การทดสอบกับโมเดลภาษาจำนวนมากแสดงให้เห็นว่า ส่วนใหญ่ไม่สามารถตรวจจับหรือจัดการกับกรณีฉุกเฉินด้านสุขภาพจิตได้อย่างน่าเชื่อถือ และมักให้คำตอบที่เป็นอันตราย โมเดลที่ปรับแต่งเพื่อสุขภาพจิตไม่ได้แสดงผลการปรับปรุงอย่างมีนัยสำคัญ กระตุ้นให้เห็นความจำเป็นในการฝึกด้านความปลอดภัย การพัฒนาความปลอดภัยของโมเดลสำหรับอาการเช่น mania และ psychosis แสดงการปรับปรุงเพียงเล็กน้อย แต่มักไม่สามารถประเมินตนเองได้อย่างถูกต้อง การแก้ไขปัญหาเหล่านี้ต้องการการวิจัยความปลอดภัยที่มาจากผู้เชี่ยวชาญในด้านสุขภาพจิต การใช้บทบาทของ AI ในวิกฤติสุขภาพจิต เนื่องจาก AI กลายเป็นจุดติดต่อที่สำคัญสำหรับหลายคน ทางก้าวหน้าเกี่ยวข้องกับการสนับสนุนการวิจัยความปลอดภัยของ AI การร่วมมือระหว่างนักพัฒนา AI และผู้เชี่ยวชาญด้านสุขภาพจิต และแนวทางปฏิบัติที่ชัดเจนสำหรับการจัดการด้านสุขภาพจิตของ AI Declan Grabb, M
- 1