lang icon English

All
Popular
Dec. 24, 2024, 7:20 a.m. กองทุน ETF ปัญญาประดิษฐ์ (AI) ที่ชาญฉลาดที่สุดที่ควรซื้อด้วยเงิน $500 ในตอนนี้

ขออภัย, เนื้อหานี้ยาวเกินกว่าจะบรรจุในคำตอบเดียวได้ โปรดลองย่อหรือแยกเนื้อหาเป็นส่วนเล็ก ๆ เพื่อตรวจสอบการแปลได้ครับ

Dec. 24, 2024, 2:42 a.m. ระบบปัญญาประดิษฐ์ได้ถึงระดับมนุษย์ในการทดสอบความฉลาดทั่วไป นี่คือความหมายของมัน

โมเดลปัญญาประดิษฐ์ใหม่โดย OpenAI ที่รู้จักกันในชื่อ o3 เพิ่งประสบผลสำเร็จในระดับมนุษย์ในการทดสอบเกณฑ์มาตรฐาน ARC-AGI ซึ่งเป็นการทดสอบวัด "ความฉลาดทั่วไป" มันทำคะแนนได้ 85% ซึ่งสูงกว่าที่ AI เคยทำไว้ก่อนหน้าอย่างมากและเทียบเท่ากับคะแนนเฉลี่ยของมนุษย์ การสร้างปัญญาประดิษฐ์ทั่วไป (AGI) เป็นเป้าหมายหลักสำหรับห้องปฏิบัติการวิจัย AI สำคัญๆ และผลลัพธ์นี้แสดงถึงความก้าวหน้าไปสู่เป้าหมายดังกล่าว การทดสอบ ARC-AGI ประเมิน "ประสิทธิภาพการเรียนรู้" ของ AI—ความสามารถในการปรับตัวกับสถานการณ์ใหม่ๆ ด้วยข้อมูลที่น้อย AI ที่มีอยู่ในปัจจุบัน เช่น GPT-4 ต้องการข้อมูลมากมายในการปฏิบัติงาน โดยจะพบกับความยากในการพัฒนาภารกิจที่หายากเนื่องจากมีตัวอย่างจำกัด สำหรับ AI ที่จะจัดการกับงานที่หลากหลายและคาดเดาไม่ได้ มันต้องสามารถสร้างความทั่วไปจากจุดข้อมูลที่มีน้อย ซึ่งเป็นอุปกรณ์สำคัญของความฉลาด o3 ของ OpenAI ประสบความสำเร็จโดยการเชี่ยวชาญในรูปแบบตารางสี่เหลี่ยม แก้ปริศนาด้วยตัวอย่างจำกัดซึ่งคล้ายกับการทดสอบ IQ ของมนุษย์ แม้ว่ารายละเอียดการทำงานของ o3 จะไม่ชัดเจน แต่ความสามารถในการปรับตัวของมันเป็นที่เห็นได้ชัด มันระบุ "กฎที่อ่อนที่สุด" ที่สามารถครอบคลุมสถานการณ์ใหม่ด้วยข้อสมมติฐานน้อยที่สุด ทำให้สามารถปรับตัวได้ดียิ่งขึ้น กระบวนการนี้คล้ายกับ AI AlphaGo ของ Google ซึ่งใช้ "ความคิดเป็นสาย" เพื่อแก้ปัญหา แต่ละสายแสดงถึงทางออกที่เป็นไปได้ ประเมินโดยใช้ฮิวริสติกหรือกฎการชี้นำเพื่อเลือกสิ่งที่เหมาะสมที่สุด แม้ว่าผลการทดสอบจะน่าพอใจ แต่มันยังไม่แน่ชัดว่า o3 จะทำให้ AGI เข้าใกล้ความฉลาดแบบมนุษย์มากขึ้น ความสำเร็จของมันอาจไม่แสดงถึงการพัฒนาภายในที่ดีกว่าโมเดลก่อนหน้า แต่เป็นผลจากการฝึกอบรมเฉพาะสำหรับ ARC-AGI OpenAI ยังไม่ได้เปิดเผยรายละเอียดเกี่ยวกับ o3 อย่างเต็มที่ ดังนั้นศักยภาพที่แท้จริงของมันยังคงเป็นการคาดการณ์ การทำความเข้าใจ o3 จะต้องการการประเมินอย่างละเอียดและอาจเผยให้เห็นความสามารถของมันในการแข่งขันกับการปรับตัวของมนุษย์ หากเป็นเช่นนั้น มันอาจปฏิวัติเศรษฐกิจและเทคโนโลยี เกิดข้อพิจารณาใหม่สำหรับการกำกับดูแล AGI หากไม่ใช่ แม้ว่าจะยังคงน่าประทับใจ ชีวิตประจำวันก็อาจไม่เปลี่ยนแปลงอย่างมีนัยสำคัญ

Dec. 24, 2024, 1:17 a.m. บริษัท xAI ของอีลอน มัสก์ ได้รับเงินลงทุนใหม่ 6 พันล้านดอลลาร์ เพื่อสนับสนุนความทะเยอทะยานด้านปัญญาประดิษฐ์

บริษัท AI ของอีลอน มัสก์ ชื่อ xAI ได้รับเงินลงทุน 6 พันล้านดอลลาร์จากนักลงทุน ตามเอกสารที่ยื่นต่อ SEC ล่าสุด ซึ่งเสริมกับเงินลงทุน 6 พันล้านดอลลาร์ก่อนหน้านี้ ทำให้รวมยอดเป็น 12 พันล้านดอลลาร์ ในบรรดานักลงทุนมี Andreessen Horowitz, Blackrock, Fidelity และ Nvidia เข้าร่วมในการระดมทุนรอบนี้ได้เฉพาะนักลงทุนเดิม มีข่าวลือว่าอาจมีการเชื่อมโยงกับการเข้าซื้อ Twitter ของมัสก์ xAI ก่อตั้งขึ้นเมื่อปีที่แล้ว และได้เปิดตัว Grok ซึ่งเป็นโมเดล AI เชิงสร้างสรรค์ที่มีความสามารถพิเศษ รวมถึงการตอบคำถามที่ยั่วยุ Grok ได้บูรณาการเข้ากับ X ที่เคยรู้จักกันในชื่อ Twitter และกำลังขยายความสามารถของมันภายในแพลตฟอร์ม xAI ตั้งเป้าที่จะแข่งขันกับยักษ์ใหญ่อย่าง OpenAI และ Anthropic ด้วยการเปิดตัว API และการเปิดตัวแอป Grok บน iOS มัสก์อ้างว่าการบูรณาการข้อมูลของ xAI กับ X มอบข้อได้เปรียบในการแข่งขัน มีคดีความกล่าวหาเรื่องการค้าที่ไม่เป็นธรรมโดย OpenAI ซึ่งมัสก์กล่าวหาว่าพยายามกัดกันการแข่งขัน xAI มีวิสัยทัศน์ที่จะใช้ข้อมูลจากบริษัทของ Musk เช่น Tesla และ SpaceX เพื่อพัฒนาเทคโนโลยีในทุกกิจการ นักวิจารณ์รวมถึงผู้ถือหุ้น Tesla บางรายแย้งว่ามันได้เบี่ยงเบนทรัพยากรจาก Tesla รายได้ของ xAI ได้ถึงประมาณ 100 ล้านดอลลาร์ต่อปี บริษัทกำลังลงทุนอย่างมากในโครงสร้างพื้นฐาน มีศูนย์ข้อมูลในเมมฟิสที่มี Nvidia GPU จำนวน 100,000 ตัว คาดว่าจะเพิ่มขึ้นเป็นสองเท่า แม้จะเติบโตอย่างมีนัยสำคัญด้วยทีมงานที่ขยายเป็นกว่า 100 คนในซานฟรานซิสโก xAI มีแผนที่จะระดมทุนเพิ่มในปีหน้าในตลาดที่มีการแข่งขัน ที่ผู้เล่นหลักอย่าง Anthropic และ OpenAI ก็กำลังได้รับการลงทุนอย่างมากเช่นกัน

Dec. 24, 2024, 12:08 a.m. หุ้น TSMC แตะระดับสูงสุดเป็นประวัติการณ์ มองปีที่ดีที่สุดตั้งแต่ปี 1999 ด้วย AI

เข้าสู่ระบบเพื่อดูพอร์ตโฟลิโอของคุณ เข้าสู่ระบบ

Dec. 23, 2024, 9:39 p.m. สภาคองเกรสอาจเริ่มพิจารณาประเด็น AI ในปี 2025 นี่คือสิ่งที่คาดว่าจะเกิดขึ้น

ในปี 2024 เครื่องมือ AI เข้ามาในชีวิตประจำวันอย่างรวดเร็ว แต่กฎหมาย AI ของสหรัฐฯ กลับล้าหลัง บิลที่เกี่ยวข้องกับ AI หลายฉบับชะงักในสภาคองเกรสเนื่องจากความขัดแย้งระหว่างพรรค แม้แคลิฟอร์เนียจะผ่านร่างกฎหมายที่ถือ AI รับผิดชอบ แต่ก็ถูกยับยั้งโดยผู้ว่าการ Gavin Newsom ความคืบหน้าที่ล่าช้านี้ทำให้ผู้ที่ไม่ไว้วางใจ AI กังวล กลัวว่าประวัติศาสตร์จะซ้ำรอยในเรื่องการควบคุมที่อ่อนโยนเช่นในภาคความเป็นส่วนตัวและโซเชียลมีเดีย ผู้สนับสนุนอุตสาหกรรมโน้มน้าวนโยบายหลายท่านว่าการควบคุมมากเกินไปนั้นอาจก่อให้เกิดความเสียหาย เสนอมุมมองว่าจะเป็นการดีกว่าถ้าใช้แนวทางที่เป็นส่วนๆแทนเฟรมเวิร์กที่ครอบคลุมอย่าง AI Act ของสหภาพยุโรป ในปี 2025 สภาคองเกรสอาจมุ่งเป้าไปที่ประเด็น AI เฉพาะ โดยเริ่มจากการห้ามเผยแพร่สื่อลามกดีปเฟคโดยไม่ยินยอม แม้จะมีการสนับสนุนกว้างขวาง ความพยายามเช่น Take It Down Act เผชิญอุปสรรคแต่ก็มีความคืบหน้าเมื่อรวมในบิลการเงิน Defiance Act ซึ่งเปิดโอกาสให้ฟ้องร้องผู้สร้างดีปเฟค เป็นสิ่งที่ต้องให้ความสำคัญเช่นกัน นักกิจกรรมเรียกร้องให้มีการลงมือในการแก้ปัญหาจาก AI อื่นๆ รวมถึงความเสี่ยงด้านข้อมูลผู้บริโภคกับแชทบอทที่อาจกระตุ้นการทำร้ายตัวเอง แม้จะมีอุปสรรคควบคู่กัน นักการเมืองบางคนก็มุ่งหวังให้ AI เติบโต มองว่าเป็นการแข่งขันทางเทคโนโลยี AI Task Force ฝ่ายสองพรรคชี้ให้เห็นถึงศักยภาพของ AI ในการเพิ่มผลิตภาพและเรียกร้องให้เพิ่มเงินทุนวิจัย Create AI Act ที่ตั้งใจ สร้างทรัพยากรการวิจัย AI ระดับชาติ ไม่ประสบความสำเร็จแต่ก็ย้ำถึงความต้องการของการเข้าร่วมในนวัตกรรมที่กว้างขวาง สภาคองเกรสอาจให้ทุนสนับสนุนรวม AI เข้ากับการป้องกันประเทศสหรัฐฯ ด้วยความสนใจในโครงการสรรค์สร้างอาวุธ AI เช่นที่ OpenAI ร่วมกับ Anduril ส่วน Defense Innovation Unit ได้รับทุนสูง ส่งสัญญาณสนับสนุนสภาคองเกรสในโครงการเช่นนี้ในอนาคต บุคคลสำคัญในการก่อรูป AI คือ วุฒิสมาชิกพรรครีพับลิกัน John Thune ผู้นำเสียงข้างมากในวุฒิสภาในปี 2025 สนับสนุนความโปร่งใสของระบบ AI ขณะเดียวกันก็สนับสนุนการควบคุมเป็นชั้นในพื้นที่ความเสี่ยงสูง อิทธิพลของทรัมป์ยังไม่แน่นอน โดยที่ปรึกษาเสนอมุมมอง AI ที่หลากหลาย แม้อาจมีแนวโน้มให้ลดการควบคุม คำสั่งด้าน AI ของเขาในปี 2020 มุ่งเน้นในการปกป้องสิทธิพลเมืองและความเป็นส่วนตัว ซึ่งชี้ถึงการสนับสนุนจากสองพรรค รัฐอาจก้าวหน้ากว่าสภาคองเกรส ในการพัฒนา AI แม้จะมีความท้าทายทางกฎหมายจากรัฐบาลกลาง

Dec. 23, 2024, 8:12 p.m. คลายหรือควบคุม AI?

เจฟฟรีย์ ฮินตัน ซึ่งเป็นที่รู้จักในนาม "ผู้อยู่บันดาลใจแห่ง AI" ได้เน้นย้ำถึงความจำเป็นเร่งด่วนในการเพิ่มการควบคุมปัญญาประดิษฐ์ ซึ่งเขาได้กล่าวถึงในระหว่างการรับรางวัลโนเบลสาขาฟิสิกส์ครั้งล่าสุด เขาเรียกร้องให้รัฐบาลสร้างกฎระเบียบ AI ที่เข้มงวดขึ้นและให้บริษัทต่าง ๆ ลงทุนในโครงการริเริ่มด้านความปลอดภัยของ AI อย่างไรก็ตาม การถกเถียงเกี่ยวกับปริมาณการควบคุมที่จำเป็นยังคงอยู่ เจค พาร์คเกอร์ จากสมาคมอุตสาหกรรมความปลอดภัยแนะนำให้มีแนวทางที่ไม่แบ่งแยกตามเทคโนโลยี โดยมุ่งเน้นไปที่การควบคุมแอปพลิเคชัน AI ที่มีความเสี่ยงสูงตามการใช้งานแทนที่จะเป็นเทคโนโลยีเอง มีความกังวลเกี่ยวกับผลกระทบที่เป็นไปได้จากการควบคุมที่กว้างขวางเกินไปต่อเทคโนโลยีที่กำลังพัฒนา เจค พาร์คเกอร์ เตือนถึงการควบคุมอย่างรวดเร็วและกว้างขวาง ซึ่งอาจขัดขวางการใช้งาน AI ในชีวิตประจำวันได้เช่นเดียวกับที่เผชิญความท้าทายด้านการควบคุมในอุตสาหกรรมอื่น ๆ เจ-เอ็ม เออร์เลนดสันจากซอฟต์แวร์เอถผบแยงว่า การควบคุมที่กะตือรือร้นเกินไปอาจเป็นภาระแก่สตาร์ทอัพมากกว่าบริษัทที่ก่อตั้งขึ้นแล้ว ประเด็น AI ทางจริยธรรมและปฏิบัติในทันที เช่น ความเป็นส่วนตัวของข้อมูล ต้องการความสนใจอย่างรวดเร็ว ตามที่เดวิด เดอ ครเมอร์จากมหาวิทยาลัยนอร์ธอีสเทิร์นกล่าว เขาเสนอให้มีกฎระเบียบที่เจาะจงซึ่งมุ่งเน้นไปที่แบบจำลอง AI ขนาดเล็กที่เป็นอันตราย เช่น แบบจำลองที่ใช้ในการสร้าง deepfakes เออร์เลนดสันเรียกร้องให้บังคับใช้กฎหมายข้อมูลและทรัพย์สินทางปัญญาที่มีอยู่ โดยเน้นความสำคัญของความโปร่งใสในการพัฒนา AI เพื่อจัดการความเสี่ยงและความรับผิดชอบทางกฎหมาย ความหมายที่ชัดเจนของความรับผิดชอบสำหรับประเด็น AI ยังคงไม่ถูกแก้ไข เดอ ครเมอร์เน้นย้ำถึงความจำเป็นในการสร้างแนวทางที่ชัดเจนในการระบุว่าใครมีความรับผิดชอบเมื่อเทคโนโลยี AI ละเมิดกฎหมายความเป็นส่วนตัวหรือทรัพย์สินทางปัญญา ธุรกิจยังมีการควบคุมตนเองโดยหลีกเลี่ยงแบบจำลอง AI ที่ไม่โปร่งใสเพื่อลดความเสี่ยงของลูกค้า เดอ ครเมอร์กล่าว นอกจากนี้ยังสอดคล้องกับระดับความสบายใจของลูกค้า และใช้เวลานานก่อนที่แบบจำลอง AI ล่าสุดจะเปลี่ยนจากห้องปฏิบัติการมาใช้ในธุรกิจ

Dec. 23, 2024, 6:44 p.m. วิธีที่ AI กำลังเปลี่ยนแปลงการศึกษา: 5 เรื่องเด่นแห่งปี

ตั้งแต่เวอร์ชั่นปฏิวัติของ ChatGPT กลายเป็นที่รู้จักในช่วงปลายปี 2022 ผู้สอนต้องเผชิญกับความท้าทายที่ซับซ้อนหลายด้านในการหาแนวทางในการนำระบบปัญญาประดิษฐ์มาใช้ โรงเรียนกำลังพิจารณาคำถามสำคัญ เช่น การห้ามใช้เทคโนโลยีดังกล่าว นโยบายการใช้ AI ควรประกอบด้วยอะไรบ้าง วิธีบูรณาการเทคโนโลยีนี้เข้าสู่การเรียนการสอนอย่างมีประสิทธิภาพ และวิธีป้องกันนักเรียนไม่ให้ใช้ ChatGPT และเครื่องมือ AI เชิงสร้างสรรค์อื่น ๆ ในการคัดลอกงาน Education Week ได้ให้ข้อมูลอย่างละเอียดเกี่ยวกับประเด็นสำคัญเหล่านี้ในปี 2024 พยายามทำความเข้าใจและนำ AI มาใช้ให้ได้ผลดีขึ้น นี่คือห้าบทความที่ได้รับความนิยมที่สุดที่ Education Week เผยแพร่ในปี 2024 เกี่ยวกับ AI ในโรงเรียน: **ChatGPT ทำให้ครูภาษาอังกฤษรู้สึกหมดหวัง นี่คือวิธีที่ฉันปรับตัว** บทความความคิดเห็นนี้แบ่งปันวิธีการของ David Nurenberg ครูภาษาอังกฤษระดับมัธยมในการจัดการกับการใช้ ChatGPT ของนักเรียนในการทำงาน Nurenberg ซึ่งเป็นอาจารย์ที่ Northeastern University ในบอสตันเน้นให้ความสำคัญกับการช่วยนักเรียนวิเคราะห์ข้อความและแนวคิดต่าง ๆ แทนที่จะเน้นแต่โครงสร้างการเขียน เช่น ไวยากรณ์ อ่านต่อ **ผู้ปกครองฟ้องหลังโรงเรียนลงโทษนักเรียนที่ใช้ AI: สิ่งที่ครูควรเรียนรู้** ผู้ปกครองของวัยรุ่นในรัฐแมสซาชูเซตส์ฟ้องโรงเรียนมัธยมของเขา โดยกล่าวอ้างว่าลงโทษอย่างไม่เป็นธรรมที่ใช้ AI เชิงสร้างสรรค์ในงาน เนื่องจากโรงเรียนไม่มีนโยบายการใช้ AI อ่านต่อ **'เราอยู่ในสถานะเสียเปรียบ' และความรู้สึกอื่น ๆ ของครูเกี่ยวกับ AI** การสำรวจที่เป็นตัวแทนระดับประเทศโดยศูนย์วิจัย EdWeek เผยว่า ครู K-12 ร้อยละ 58 ไม่เคยได้รับการพัฒนาวิชาชีพเกี่ยวกับ AI ทำให้การจัดการเทคโนโลยีนี้อย่างมีประสิทธิภาพเป็นเรื่องท้าทาย อ่านต่อ **สิ่งที่ครูควรรู้เกี่ยวกับข้อมูลผิดพลาดของ AI: บทนำสำหรับครู** Sam Wineburg ศาสตราจารย์กิตติมศักดิ์ที่ Stanford University และผู้ก่อตั้งร่วมกลุ่ม Digital Inquiry Group พร้อมกับ Nadav Ziv ผู้ร่วมวิจัย ให้คำแนะนำว่า ครูสามารถช่วยนักเรียนแยกแยะข้อเท็จจริงจากสิ่งที่ AI สร้างขึ้นได้อย่างไร อ่านต่อ **พบกับ Sassy แชทบอท AI ที่ช่วยนักเรียนหางานในฝัน** Sassy แชทบอท AI ที่พัฒนาโดยกรมการศึกษาของโอเรกอน ช่วยนักเรียนในโอเรกอนในการสำรวจเส้นทางอาชีพ วางแผนสู่เป้าหมาย เตรียมตัวสำหรับสัมภาษณ์ และรักษาแรงจูงใจ อ่านต่อ