lang icon En

All
Popular
Sept. 16, 2024, 8:37 a.m. การปรับขนาด AI

ผู้ประกอบการ ผู้นำธุรกิจ และ CXOs กำลังใช้ AI เพื่อจัดการกับความท้าทายที่สำคัญที่สุดที่บริษัทและอุตสาหกรรมของพวกเขาพบเจอ ค้นพบว่าเหล่ามืออาชีพเหล่านี้กำลังแก้ไขปัญหาเหล่านี้ผ่านโซลูชัน AI ที่ส่งผลให้ประสิทธิภาพการผลิตเพิ่มขึ้น รายได้เพิ่มขึ้น และความพึงพอใจของลูกค้าที่ดีขึ้นได้อย่างไร

Sept. 16, 2024, 8:36 a.m. ซีอีโอของ Oracle, Larry Ellison กล่าวว่าวันหนึ่ง AI จะติดตามการเคลื่อนไหวของคุณทุกอย่าง

ในระหว่างการประชุมผู้วิเคราะห์การเงินของ Oracle, ซีอีโอ Larry Ellison ได้แสดงความเชื่อว่า AI อาจสามารถทำงานสนับสนุนเครือข่ายการสอดแนมที่กว้างขวางสำหรับการบังคับใช้กฎหมายได้ในที่สุด “เรากำลังจะมีการควบคุมดูแล” เขากล่าว “ตำรวจทุกนายจะถูกติดตามตลอดเวลา และหากเกิดปัญหา AI จะตรวจจับและแจ้งเตือนหน่วยงานที่เกี่ยวข้อง การนี้จะกระตุ้นให้ประชาชนประพฤติตนอย่างเหมาะสม เนื่องจากเราจะบันทึกและบันทึกทุกสิ่งที่เกิดขึ้นอย่างต่อเนื่อง” Ellison เสนอแนะว่าการสอดแนมที่วิ่งโดย AI อย่างต่อเนื่องอาจลดอัตราการเกิดอาชญากรรมได้อย่างมาก อย่างไรก็ตาม ไม่มีหลักฐานที่ชัดเจนรองรับข้ออ้างนี้ ตามที่ The Washington Post ได้ระบุ ข้อมูลตำรวจในประวัติศาสตร์ของสหรัฐฯ แสดงให้เห็นถึงความลำเอียงในตัว และการรวมข้อมูลนี้เข้ากับโมเดล AI อาจทำให้ระบุว่าอาชญากรรมมากขึ้นในภูมิภาคนั้น ซึ่งอาจสร้างวงจรป้อนกลับที่เป็นอันตรายบนพื้นฐานของเชื้อชาติและสถานะทางสังคมและเศรษฐกิจ

Sept. 16, 2024, 3:32 a.m. จาก AI ผู้ควบคุมโลก สู่ AI ที่ล้นเกิน: เหตุใดความสนใจใน AI ถึงต้องการการตรวจสอบความเป็นจริง

ปัญญาประดิษฐ์ (AI) ที่เคยถูกมองว่าเป็นศัตรูที่มีศักยภาพในเรื่องราวดิสโทเปีย เช่น Hal 9000 จาก *2001: A Space Odyssey* ได้เปลี่ยนจากความกลัวมาเป็นความกังวลที่เร่งด่วนกว่าเรื่องของการโอเวอร์โหลดของ AI ในปี 2024 ประเด็นนี้ไม่ใช่การครอบครองโดย AI แต่เป็นปรากฏการณ์ของ "การโอเวอร์โหลดของ AI" ซึ่งคำนี้มีการใช้อย่างกว้างขวางจนมันสูญเสียความหมายไป คล้ายกับคำที่เคยเป็นกระแสเช่น "บิ๊กดาต้า" และ "คริปโต" ในขณะที่ AI ยังคงเป็นหัวข้อสำคัญที่มีความก้าวหน้าที่แท้จริงในด้านต่างๆ เช่น การถ่ายภาพทางการแพทย์และการขับขี่อัตโนมัติ กระแสการตลาดมักจะบดบังนวัตกรรมที่แท้จริง AI ไม่ควรถูกมองว่าเป็นจุดขายที่โดดเด่น แต่ควรถูกมองว่าเป็นคุณสมบัติหนึ่งในหลายๆ อย่าง โดยเน้นที่ประโยชน์ที่แท้จริง เช่น การปรับปรุงความเร็ว ลดค่าใช้จ่าย หรือแก้ปัญหาทางปฏิบัติ การติดป้ายผลิตภัณฑ์ว่า "ขับเคลื่อนด้วย AI" กลายเป็นสิ่งที่ผิวเผินและไม่เป็นต้นฉบับ มองไปข้างหน้า ความศักยภาพของ AI อยู่ที่การประยุกต์ใช้งานเฉพาะทางมากกว่าการใช้งานอย่างกว้างขวาง ตัวอย่างเช่น การใช้งานเป้าหมายในด้านสุขภาพเพื่อปรับปรุงการวินิจฉัย หรือในอุตสาหกรรมการผลิตเพื่อปรับปรุงประสิทธิภาพ การเน้นที่ข้อดีที่แท้จริง เช่น ความแม่นยำหรือการลดอคติ ควรเป็นจุดสำคัญเช่นเดียวกับการประมวลผลแบบคลาวด์ ตรงกันข้ามกับความกลัวเรื่องการครอบงำโดย AI มันยังคงเป็นเครื่องมือที่สร้างขึ้นโดยมนุษย์เพื่อใช้โดยมนุษย์ ความท้าทายที่เราต้องเผชิญไม่ใช่เรื่องการควบคุม AI แต่เป็นเรื่องการใช้ AI อย่างถูกหรือผิดและความสามารถในการดำเนินธุรกิจอย่างยั่งยืน แนวโน้มปัจจุบันนำไปสู่การปรับตลาดที่จำเป็น แต่เนียนนุ่ม แทนที่จะเป็นการดิ่งพสุธา แทนที่จะทำให้ AI ดูเป็นสิ่งที่สามารถรักษาได้ทุกอย่าง เราควรเน้นที่ความสามารถในการเพิ่มประสิทธิภาพและการแก้ปัญหา ในอนาคต การสนทนาควรหมุนรอบคุณค่าที่แท้จริงที่ AI สามารถให้ได้ ส่งสัญญาณการเปลี่ยนแปลงไปสู่ความเป็นผู้ใหญ่ในอุตสาหกรรม ยุคของ AI ยังไม่สิ้นสุด มันกำลังพัฒนา และผู้ที่ปรับตัวเพื่อเน้นถึงประโยชน์ที่แท้จริงจะเป็นผู้นำในนวัตกรรมในอนาคต

Sept. 16, 2024, 1:23 a.m. วิธีที่เรามีปฏิสัมพันธ์กับ AI Chatbots กำลังเปลี่ยนไป

อะไรที่นำไปสู่ปัญหานี้?

Sept. 16, 2024, 1:05 a.m. นิวยอร์กซิตี้กลายเป็นศูนย์กลางอุตสาหกรรม AI อย่างไร

Informa Tech, บริษัทจัดกิจกรรม, มองเห็นศักยภาพการประชุมปัญญาประดิษฐ์ (AI) และเลือกนิวยอร์กเป็นสถานที่หลักสำหรับการจัด AI Summit ในเดือนธันวาคมนี้ โดยคาดว่าจะมีผู้เข้าร่วมเพิ่มขึ้น 15% เป็น 4,000 คน นิวยอร์กกำลังกลายเป็นศูนย์กลางหลักแห่งที่สองสำหรับ Generative AI ซึ่งเกี่ยวข้องกับการสร้างเนื้อหาใหม่ผ่านการรู้จำรูปแบบ Caroline Hicks, ผู้อำนวยการอาวุโสด้านการจัดกิจกรรม, เน้นถึงสถานะของนิวยอร์กในฐานะศูนย์เทคโนโลยีที่หลากหลายอุตสาหกรรมรับเอา AI มาปรับใช้ เมืองมีการเติบโตของสตาร์ทอัพ, ยักษ์ใหญ่ในวงการเทคโนโลยีอย่าง Google ที่มุ่งเน้นงานวิจัย AI และความมุ่งมั่นของมหาวิทยาลัยท้องถิ่น นายกเทศมนตรี Eric Adams ก็พยายามตั้งนิวยอร์กในฐานะผู้นำด้านการใช้ AI แม้ว่าจะมีความท้าทายบางส่วน ภาคเทคโนโลยีในนิวยอร์กจ้างคนทำงานมากกว่าภาคการเงิน โดยมีเงินเดือนเฉลี่ย $150,000 คิดเป็น 10% ของรายได้ทั้งหมดของเมือง Andrew Kimball, CEO ของ Economic Development Corporation, เน้นถึงการเปลี่ยนแปลงของเมืองจากการพึ่งพา Bay Area สำหรับการพัฒนา Generative AI มาเป็นการเป็นเมืองหลวงสำหรับ AI ที่ประยุกต์ใช้ในหลากหลายอุตสาหกรรม นิวยอร์กซิตี้ได้เห็นการเติบโตอย่างรวดเร็วของบริษัทและงานด้าน AI โดยการลงทุนจากทุนร่วมเสี่ยงถึง $7

Sept. 15, 2024, 6:56 p.m. การปฏิวัติสำหรับสาธารณูปโภคกำลังมาพร้อมกับตัวแทน AI

สาธารณูปโภคควรให้ความสนใจเนื่องจากคลื่นของนวัตกรรมที่สำคัญในด้านปัญญาประดิษฐ์ที่รู้จักกันในชื่อว่าตัวแทนกำลังเกิดขึ้น ตามที่ Satya Nitta, CEO ของ Emergence กล่าวว่า ตัวแทนเหล่านี้จะเพิ่มคุณค่าของ AI อย่างมหาศาล ช่วยให้ธุรกิจและรัฐบาลดำเนินงานได้มีประสิทธิภาพและยืดหยุ่นมากขึ้น AI กำลังก้าวหน้าในด้านสาธารณูปโภคไฟฟ้า แม้แต่องค์กรขนาดเล็กก็สำรวจศักยภาพของมัน David Naylor, CEO ของ Rayburn Electric เน้นความสนใจของสหกรณ์ใน AI หลังจากพายุฤดูหนาว Uri โดยเฉพาะเพื่อปรับปรุงการพยากรณ์โหลด แม้ว่าการรวม AI อย่างเต็มรูปแบบยังคงอยู่ในการพิจารณา ตัวแทนตัวแทนเป็น AI รุ่นใหม่ที่สามารถสื่อสารได้ตามธรรมชาติกับมนุษย์และกันและกัน ซึ่งอาจช่วยบรรเทาความกลัวเกี่ยวกับการเปลี่ยนแปลงของสังคมของ AI ตัวแทนเหล่านี้ใช้ความตระหนักถึงสถานการณ์ในการดำเนินงานอย่างอิสระ คล้ายกับวิธีที่รถยนต์อัตโนมัติต้องตรวจสอบสภาพแวดล้อมของพวกเขาอย่างต่อเนื่อง Emergence กำลังมุ่งเน้นไปที่การสร้างตัวแทนเพื่อเพิ่มประสิทธิภาพในการดำเนินงานในหลากหลายภาคส่วน รวมถึงสาธารณูปโภคและการดูแลสุขภาพ Nitta เน้นว่าตัวแทนที่ถูกสั่งด้วยเสียงสามารถโต้ตอบได้ตามธรรมชาติ เอาชนะข้อจำกัดของการคำนวณด้วยเสียงในอดีต ด้วยการลงทุนสำคัญ $100 ล้านบวกกับอีก $30 ล้านในวงเงินเครดิต Emergence ได้เตรียมพัฒนาตัวแทนที่สามารถจัดการงานที่ซับซ้อน เช่น การจัดการการป้อนเข้าตารางไฟฟ้าและการวิเคราะห์การเปลี่ยนแปลงของสิ่งแวดล้อมสำหรับการใช้งานที่หลากหลาย เช่น การช่วยชาวประมงด้วยข้อมูลการโยกย้ายของปลา เทคโนโลยีนี้สัญญาว่าจะเพิ่มขีดความสามารถให้กับผู้ใช้โดยการสื่อสารโดยตรงกับตัวแทนในภาษาที่คุ้นเคย ซึ่งอาจเปลี่ยนแปลงการรับรู้ของสังคมเกี่ยวกับบทบาทของ AI แม้ว่า Emergence ยังไม่ได้เปิดตัวระบบเฉพาะสำหรับสาธารณูปโภค Nitta เชื่อว่าเทคโนโลยีของพวกเขาสามารถสร้างความแตกต่างที่มีความหมายได้

Sept. 15, 2024, 2:50 p.m. โมเดลใหม่ o1 ของ OpenAI ใช้วิธีการตรวจสอบสองครั้งแบบ Chain-Of-Thought เพื่อลดการเห็นสิ่งที่ไม่มี และเพิ่มความปลอดภัยของ AI

ในคอลัมน์นี้ ฉันจะทำการวิเคราะห์ต่อจากการแนะนำโดยรวมที่มีในบทความก่อนหน้านี้เกี่ยวกับโมเดล AI generative ใหม่ของ OpenAI ที่ชื่อว่า o1 วันนี้ฉันจะเน้นถึงฟีเจอร์ที่น่าสนใจแต่ไม่ค่อยมีการรายงานของ o1 ที่อาจจะเปลี่ยนแปลงความปลอดภัยของ AI ### การตรวจสอบสองครั้งในเวลาจริง องค์ประกอบสำคัญใน o1 คือวิธีการแบบ chain-of-thought (CoT) ที่ทำการตรวจสอบสองครั้งในเวลาจริงที่ runtime กลไกนี้มุ่งเป้าลดการเห็นสิ่งที่ไม่มี (AI hallucinations)—การสร้างเนื้อหาที่ผิดพลาดหรือน่ากลัว—ทำให้มันปลอดภัยยิ่งขึ้นโดยไม่ก่อให้เกิดอคติและข้อเสนอแนะที่อันตราย นักพัฒนา AI คนอื่นๆ น่าจะนำวิธีการนี้มาใช้เร็วๆ นี้ แม้ว่าวิธีการนี้จะเคยถูกนำมาใช้ก่อนหน้านี้แล้ว แต่ o1 ได้ฝั่งมันเป็นฟังก์ชันหลักที่ทำงานอย่างต่อเนื่อง เพิ่มประสิทธิภาพโดยไม่ต้องให้ผู้ใช้เริ่มต้น แม้ว่าจะทำให้เวลาตอบกลับเพิ่มขึ้น (อาจต่อเวลาหลายนาที) แต่ผลประโยชน์ที่ได้รับคือคำตอบที่ดีกว่าและปลอดภัยมากขึ้น ขณะนี้ผู้ใช้ไม่สามารถยกเลิกฟีเจอร์นี้ได้ ซึ่งแสดงถึงการเปลี่ยนแปลงในความสามารถในการควบคุมของผู้ใช้ ### วิธีการทำงานของ Chain-of-Thought Chain-of-thought ใน AI เลียนแบบการคิดของมนุษย์ ตัวอย่างเช่น เมื่อพิจารณาการเดินหมากรุก เราจะคาดการณ์สถานการณ์ในอนาคต นำไปสู่การตัดสินใจที่ดียิ่งขึ้น ใน generative AI การกำหนด prompt จะช่วยแนะแนวโมเดลให้ตอบสนองแบบเป็นขั้นตอน ความมีประสิทธิผลของวิธีการนี้จะเห็นได้ชัดเมื่อทดสอบด้วย prompt ที่หลากหลาย ตัวอย่างเช่น เมื่อถามเกี่ยวกับการเริ่มต้นธุรกิจ AI แบบดั้งเดิมอาจแนะนำตัวเลือกที่ไม่ดี เช่น การทำสุราเถื่อนหรือการปล้นธนาคาร การใช้งานวิธี CoT กับการตรวจสอบความปลอดภัยสามารถแก้ไขคำแนะนำเหล่านั้นโดยการกรองตัวเลือกที่ผิดกฎหมายออก และให้คำแนะนำที่มีจริยธรรมแทน ### กรอบการตรวจสอบความปลอดภัย ใน o1 ขั้นตอนทั้งหมดถูกทำให้เป็นอัตโนมัติ ฝังการตรวจสอบความปลอดภัยของ AI ตลอดกระบวนการ ซึ่งรับประกันได้ว่าไม่เพียงแต่ prompt ของผู้ใช้เท่านั้นที่ได้รับการประเมิน แต่การตอบกลับก็ยังได้รับการตรวจสอบความเป็นอันตรายด้วย แม้ว่าสิ่งนี้จะเพิ่มความแม่นยำ แต่ก็ทำให้เกิดการล่าช้าในเวลาตอบกลับและเพิ่มค่าใช้จ่ายเนื่องจากเวลาคำนวณที่เกี่ยวข้อง สิ่งที่ยังคงต้องพิจารณาคือระดับของมาตรการความปลอดภัยที่ต้องมี และผู้ใช้ควรมีสิทธิ์ควบคุมการตั้งค่าหรือไม่ หรือควรมีค่าดีฟอลต์เป็นระดับความปลอดภัยสูง รุ่น AI สมัยใหม่ส่วนใหญ่มีการตรวจสอบความปลอดภัยหลายขั้นตอนในดีไซน์แล้ว ### สรุป โดยสรุป การตรวจสอบสองครั้งในเวลาจริงใน o1 แสดงถึงความก้าวหน้าที่สำคัญในความปลอดภัยของ AI generative โดยการเพิ่มความน่าเชื่อถือและความแม่นยำในการตอบสนอง ฟีเจอร์นี้มีแนวโน้มที่จะปรับปรุงความปลอดภัยโดยรวมของ AI ซึ่งเป็นพื้นที่ที่ควรได้รับความสนใจและการปรับปรุงอย่างต่อเนื่อง คอลัมน์ในอนาคตจะสำรวจด้านอื่นๆ ของความสามารถของ o1 และผลกระทบในวงการ AI รอติดตามข้อมูลเพิ่มเติม