วิธีการอภิปรายของ AI ช่วยเพิ่มความแม่นยำในการตัดสินในงานที่ซับซ้อน

ในเดือนกุมภาพันธ์ 2023 แชทบอทเอไอของ Google ที่ชื่อ Bard ระบุผิดว่า James Webb Space Telescope ถ่ายภาพแรกของดาวเคราะห์นอกระบบสุริยะได้ ส่งผลให้เกิดข้อผิดคล้ายกับข้อผิดพลาดที่พบใน ChatGPT ของ OpenAI ระหว่างการศึกษาของนักวิจัยที่มหาวิทยาลัย Purdue ซึ่งพบว่ามากกว่าครึ่งของคำถามเกี่ยวกับการเขียนโปรแกรมกว่า 500 ข้อนั้นถูกตอบไม่ถูกต้อง แม้ข้อผิดพลาดเหล่านี้ยังสังเกตเห็นได้ชัดเจน ผู้เชี่ยวชาญแสดงความกังวลว่าเมื่อโมเดลเอไอซับซ้อนมากขึ้น จะเป็นการท้าทายที่จะแยกแยะความจริงจากข้อมูลเท็จ Julian Michael จาก NYU เน้นถึงความยากในการดูแลระบบเอไอในด้านเกินขีดความสามารถของมนุษย์ หนึ่งในวิธีแก้ปัญหาที่ถูกเสนอคือการให้สองโมเดลเอไอขนาดใหญ่มาถกเถียงกัน โดยมีโมเดลที่ง่ายกว่าหรือมนุษย์ตัดสินผลที่ถูกต้องกว่า แนวคิดนี้เกิดขึ้นครั้งแรกเมื่อหกปีที่แล้ว อย่างไรก็ตาม การศึกษาใหม่ ๆ โดย Anthropic และ Google DeepMind ได้เสนอหลักฐานทางประจักษ์เบื้องต้นว่าการดีเบตของ LLM สามารถช่วยแยกแยะความจริงได้ การสร้างระบบเอไอที่น่าเชื่อถือเป็นส่วนหนึ่งของการจัดแนวที่ทำให้เอไอมีค่านิยมร่วมกับมนุษย์ การจัดแนวปัจจุบันพึ่งการตอบรับจากมนุษย์ แต่การกำกับดูแลในระดับที่ขยายออกไป ซึ่งทำให้มั่นใจในความถูกต้องของเอไอเกินขีดความสามารถของมนุษย์นั้นมีความจำเป็นเมื่อเอไอก้าวหน้า การดีเบตซึ่งเริ่มสำรวจตั้งแต่ปี 2018 ถูกพิจารณาว่าเป็นวิธีจัดการการกำกับดูแลที่ขยายออกไป ในตอนแรกได้เสนอโดย Geoffrey Irving ที่ OpenAI เทคนิคนี้เกี่ยวข้องกับการที่โมเดลเอไอสองโมเดลถกเถียงคำถามเพื่อชักจูงผู้ตัดสินภายนอกให้เห็นด้วยถึงความถูกต้องของพวกมัน แม้ว่าการทดสอบขั้นพื้นฐานในปี 2018 จะชี้ว่าการดีเบตอาจใช้ได้ แต่ความตระหนักถึงแนวโน้มมนุษย์ต่อการตัดสินจากมุมมองส่วนตัวและความแตกต่างในความสามารถการประเมินยังคงเป็นความกังวล นักวิจัยอย่าง Amanda Askell โต้แย้งว่าการเข้าใจการตัดสินใจของมนุษย์เป็นสิ่งจำเป็นในการทำให้เอไอจัดแนวกับค่านิยมของมนุษย์อย่างมีประสิทธิภาพ แม้ว่าผลเบื้องต้นจะไม่แน่ชัด การศึกษาใหม่แสดงถึงศักยภาพ การศึกษาของ Anthropic ชี้ว่าการดีเบตของ LLM ช่วยเพิ่มความแม่นยำของผู้ตัดสินที่ไม่ใช่ผู้เชี่ยวชาญอย่างมีนัยสำคัญ เพิ่มขึ้นเป็น 76% จาก 54% การทดลองที่คล้ายกันของ Google DeepMind ยืนยันว่าการดีเบตนำไปสู่การเพิ่มความแม่นยำในงานที่หลากหลาย Zachary Kenton ระบุว่าการเห็นทั้งสองฝ่ายให้ข้อมูลมากขึ้นแก่ผู้ตัดสิน ส่งเสริมข้อสรุปที่แม่นยำกว่า อย่างไรก็ตาม ยังมีความท้าทาย เช่น การมีอิทธิพลของลักษณะการดีเบตที่ไร้สาระและอคติเช่นการตามใจที่เอไออาจสะท้อนความชอบของผู้ใช้อย่างไม่ถูกต้อง นอกจากนี้ คำตอบที่ถูกหรือผิดในปัจจุบันอาจไม่สามารถแปลไปสู่สถานการณ์จริงที่ซับซ้อนและละเอียดอ่อนได้ การเข้าใจพฤติกรรมเอไอและการระบุว่าเอไอมีความรู้เกินกว่าผู้ตัดสินมนุษย์ในด้านใดเป็นสิ่งสำคัญสำหรับการพัฒนาต่อเนื่องและการประยุกต์ใช้วิธีการเหล่านี้ดังที่ Irving ระบุ แม้จะมีอุปสรรคเหล่านี้ ความสำเร็จทางประจักษ์ของการดีเบตก็แสดงถึงความก้าวหน้าที่มีศักยภาพในการปรับปรุงความน่าเชื่อถือและการจัดแนวเอไอ
Brief news summary
ในเดือนกุมภาพันธ์ 2023 ความกังวลเกี่ยวกับความถูกต้องของปัญญาประดิษฐ์เกิดขึ้นเมื่อแชทบอท Bard ของ Google ทำให้เกิดข้อผิดพลาดเกี่ยวกับกล้องโทรทรรศน์อวกาศเจมส์เวบบ์ งานวิจัยจากมหาวิทยาลัยเพอร์ดูยังระบุว่ามากกว่าครึ่งของคำตอบในการเขียนโปรแกรมของ ChatGPT นั้นไม่ถูกต้อง ในขณะที่ข้อผิดพลาดดังกล่าวยังสามารถตรวจพบได้ในขณะนี้ ผู้เชี่ยวชาญอย่าง Julian Michael จาก NYU กังวลเกี่ยวกับโมเดลปัญญาประดิษฐ์ในอนาคตที่จะสร้างคำตอบที่ซับซ้อนและไม่สามารถตรวจสอบได้ ซึ่งอาจบ่อนทำลายความเชื่อถือ วิธีแก้ปัญหาหนึ่งคือการให้โมเดลปัญญาประดิษฐ์ถกเถียงกัน เพื่อช่วยให้ผู้พิพากษามนุษย์หรือปัญญาประดิษฐ์ตัดสินความจริง ค้นพบจาก Anthropic และ Google DeepMind ชี้ว่าการฝึกอบรมโมเดลผ่านการถกเถียงอาจเพิ่มความแม่นยำได้ อย่างไรก็ตาม ยังมีความท้าทาย เช่น อคติ ความน่าเชื่อถือในงานต่างๆ และการสอดคล้องกับคุณค่าของมนุษย์ แม้มีปัญหาเหล่านี้ แต่การทดลองอย่างต่อเนื่องกับการถกเถียงของปัญญาประดิษฐ์และวิธีการควบคุมเสนอความหวังในการเพิ่มความน่าเชื่อถือของปัญญาประดิษฐ์ นักวิจัยมองในแง่ดีว่าการถกเถียงของปัญญาประดิษฐ์อาจมีส่วนสำคัญต่อความปลอดภัยและความสอดคล้องของปัญญาประดิษฐ์ในอนาคต
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Justin Sun’s Tron จะเข้าจดทะเบียนในตลาดหลักทรัพย์ผ่…
จัสติน ซุน ผู้ก่อตั้งระบบนิเวศบล็อกเชนทรอน มูลค่า 26 พันล้านดอลลาร์ฯ ประกาศแผนที่จะนำทรอนเข้าสู่ตลาดหุ้นสาธารณะผ่านการควบรวมกิจการแบบย้อนกลับกับ SRM Entertainment ซึ่งจดทะเบียนในตลาด Nasdaq ซึ่งเป็นก้าวสำคัญในความเติบโตและการเพิ่มความสามารถในการมองเห็นในภาคการเงินและเทคโนโลยี หลังจากข้อตกลงนี้ SRM Entertainment จะเปลี่ยนชื่อเป็น Tron Inc.

เจ้าหน้าที่แรงงานระดับสูงของทรัมป์: คนงานอเมริกาไม่เชื่…
ไรท์ Sonderling อดีตรองเลขาธิการแรงงานภายใต้รัฐบาลทรัมป์ เมื่อไม่นานมานี้ได้ชี้ให้เห็นอุปสรรคสำคัญต่อการนำ AI ไปใช้อย่างแพร่หลายในแรงงานสหรัฐคือ ความไม่น่าเชื่อถือของพนักงาน ในงานประชุม Business Roundtable เขาอธิบายว่าการที่แรงงานมีความสงสัยต่อการใช้ AI ของนายจ้างเป็นสาเหตุที่ชะลอการผนวก AI เข้ากับอุตสาหกรรมต่าง ๆ AI ถูกมองโดยทั่วไปว่าเป็นเครื่องมือที่เปลี่ยนแปลงได้ สามารถเสริมสร้างผลผลิต การตัดสินใจ และนวัตกรรมได้ แต่ก็มีพนักงานจำนวนมากที่กลัวว่าจะตกงานจากการอัตโนมัติ ปรากฏการณ์นี้สร้างความต้านทานต่อเครื่องมือที่ขับเคลื่อนด้วย AI Sonderling รับทราบว่าความกังวลเหล่านี้เป็นเรื่องสมเหตุสมผล จากการศึกษาพบว่ามีการคาดการณ์ว่าจะเกิดการเปลี่ยนแปลงงานจำนวนมากขึ้นจากการอัตโนมัติที่เพิ่มขึ้นและความสามารถของ AI ที่จะเข้ามาแทนที่งานซ้ำซากและบางงานที่ซับซ้อน การกังวลเกี่ยวกับความปลอดภัยในการทำงานนี้เป็นอุปสรรคต่อการนำ AI ไปใช้ให้ราบรื่น เพื่อรับมือกับปัญหานี้ รัฐบาลภายใต้ทรัมป์สนับสนุนการเรียนรู้เชิงรุก Sonderling เน้นย้ำว่าควรแนะนำความรู้เกี่ยวกับ AI ตั้งแต่เริ่มต้นในด้านการศึกษาเพื่อเตรียมแรงงานในอนาคตให้มีทักษะที่เกี่ยวข้องและลดความกลัวด้วยการสร้างความตระหนักและความเข้าใจ สนับสนุนแนวคิดนี้ คำสั่งผู้บริหารได้เรียกร้องให้พัฒนาหลักสูตร AI ในโรงเรียนทั่วประเทศ โครงการนี้มีเป้าหมายเพื่อทำให้ AI เข้าใจง่ายขึ้น เตรียมนักเรียนให้พร้อมสำหรับแรงงานที่มีการผนวก AI และส่งเสริมความน่าเชื่อถือโดยการแก้ไขปัญหาตั้งแต่ต้น ความกว้างของการสนทนาเกี่ยวกับ AI ในที่ทำงาน จ balance ระหว่างสัญญาณเทคโนโลยีและความกังวลที่ถูกต้องเกี่ยวกับการเปลี่ยนแปลงและจริยธรรม ความคิดเห็นของ Sonderling เน้นความสำคัญของการแก้ไขปัจจัยมนุษย์—ความไว้วางใจและการยอมรับ—ควบคู่ไปกับเทคโนโลยี ในขณะที่ AI ยิ่งเข้าไปในหน้าที่ทางธุรกิจมากขึ้น การสื่อสารที่โปร่งใสและการมีส่วนร่วมของพนักงานจะเป็นสิ่งจำเป็น นายจ้างต้องใช้ AI อย่างรับผิดชอบและมีส่วนร่วมให้พนักงานเข้าใจผลกระทบของ AI ต่อบทบาทของพวกเขา โฟกัสด้านการศึกษาของรัฐบาลสะท้อนกลยุทธ์ที่มุ่งหน้าสู่อนาคต เพื่อให้แรงงานปรับตัวและใช้ประโยชน์สูงสุดจาก AI ในด้านเศรษฐกิจ แม้ว่าจะยังมีความท้าทาย แต่ความพยายามเหล่านี้มุ่งหวังที่จะสร้างแรงงานที่มีข้อมูล มีความมั่นใจ และมอง AI เป็นโอกาสมากกว่าความเสี่ยง โดยสรุป การเอาชนะความไม่ไว้วางใจของพนักงานเป็นสิ่งจำเป็นสำหรับความสำเร็จในการนำ AI ไปใช้ ด้วยการศึกษาและความโปร่งใส ธุรกิจและรัฐบาลสามารถร่วมมือกันทำให้ AI เป็นเครื่องมือในการเสริมแรงและความก้าวหน้า ส่งเสริมแรงงานอเมริกันที่มีความรู้ ความมั่นใจ และปรับตัวได้ พร้อมรับอนาคตเศรษฐกิจ

แอเวลล์เดินหน้าสู่องค์กรเต็มรูปแบบ เพื่อชิงส่วนแบ่งตลาดโ…
วันที่ 17 มิถุนายน 2025 – ดูไบ สหรัฐอาหรับเอมิเรตส์ Avail เสนอชุดบล็อกเชนเดียวที่ให้ความสามารถในการขยายระนาบแนวนอน การเชื่อมต่อข้ามเชน และสภาพคล่องแบบรวมศูนย์ พร้อมรักษาความเป็นกระจายอำนาจ สนับสนุนโดยนักลงทุนเว็นเจอร์แคปิตอลชั้นนำอย่าง Founders Fund และ Dragonfly, Avail เป็นพลังให้กับโครงการ Web 3

ไมโครซอฟต์และโอเปนเอไอเข้าทำการเจรจาอย่างซับซ้อนเกี่ย…
ไมโครซอฟท์และ OpenAI กำลังอยู่ในกระบวนการเจรจาที่ซับซ้อนและตึงเครียด ซึ่งอาจส่งผลให้เกิดการเปลี่ยนแปลงอย่างมีนัยสำคัญต่อความร่วมมือเชิงยุทธศาสตร์ของพวกเขา รวมทั้งส่งผลต่ออุตสาหกรรมปัญญาประดิษฐ์ในวงกว้าง ในช่วงหลายปีที่ผ่านมา ไมโครซอฟท์ได้ลงทุนไปนับพันล้านดอลลาร์ใน OpenAI โดยผนวกเทคโนโลยีของเปิดAIเข้าเป็นส่วนหนึ่งของกลยุทธ์ด้าน AI ของตนเอง แม้ว่าทั้งสองบริษัทจะมีความสัมพันธ์ด้านความร่วมมือ แต่ก็พบว่ามักจะอยู่ในสถานะการแข่งขัน แหล่งปัญหาหลักเกิดจากความผูกพันของ OpenAI ที่ต้องขออนุญาตจากไมโครซอฟท์ก่อนดำเนินการปรับโครงสร้างบริษัท ซึ่งเป็นข้อตกลงที่ทำไว้กับนักลงทุนรายล่าสุด เรื่องอ่อนไหวหนึ่งในเจรจาคือ Windsurf สตาร์ทอัปด้านโค้ดดิ้งที่เพิ่งถูกซื้อกิจการโดย OpenAI การโต้แย้งหลักคือไมโครซอฟท์จะสามารถเข้าถึงและใช้ทรัพย์สินทางปัญญาที่เกี่ยวข้องกับ Windsurf ได้หรือไม่ รายงานระบุว่า OpenAI กำลังพิจารณาแจ้งข้อกล่าวหาต่อต้านการผูกขาดต่อไมโครซอฟท์ หากการเจรจาล้มเหลว Despite these challenges and tensions, both parties remain hopeful about reaching a mutually acceptable resolution.

กลุ่มคริปโต Tron จะเข้าสู่ตลาดหุ้นสหรัฐฯ โดยวิธีการควบรว…
บริษัทบล็อกเชน Tron ซึ่งก่อตั้งโดยนักธุรกิจคริปโตเคอเรนซีชาวฮ่องกง จัสติน ซัน กำลังเตรียมเข้าจดทะเบียนในตลาดหลักทรัพย์สหรัฐอเมริกา ผ่านการควบรวมกิจการเชิงกลยุทธ์กับ SRM Entertainment (SRM

OpenAI ได้รับสัญญารักษาความปลอดภัยด้านการป้องกันประเ…
เปิด AI ได้รับสิทธิ์สัญญามูลค่า 200 ล้านดอลลาร์จากกระทรวงกลาโหมของสหรัฐอเมริกา เป็นก้าวสำคัญในความร่วมมือด้านปัญญาประดิษฐ์กับหน่วยงานด้านความมั่นคงแห่งชาติ สัญญานี้มุ่งเน้นการใช้ความสามารถขั้นสูงของ OpenAI เพื่อพัฒนาเครื่องมือ AI สุดล้ำในแนวหน้า ซึ่งมีเป้าหมายเพื่อเสริมสร้างความมั่นคงของชาติมีการใช้งานเพื่อปรับปรุงกลยุทธ์สงครามและการดำเนินงานในหน่วยงานด้านความมั่นคงของสหรัฐฯ โดยเน้นบทบาทที่เพิ่มขึ้นของ AI ในการป้องกันประเทศสมัยใหม่ โดยรักษาความปลอดภัยและประสิทธิภาพในการปฏิบัติงาน งานจะเริ่มต้นโดยทันที และคาดว่าจะเสร็จสมบูรณ์ภายในกรกฎาคม 2026 ซึ่งส่วนใหญ่อยู่ในกรุงวอชิงตัน ดี.ซี.

ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์หารือเกี่ยวกับความเสี่ยงต่อ…
ความก้าวหน้าอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้ก่อให้เกิดการถกเถียงและความกังวลอย่างมากในหมู่นักวิชาการ โดยเฉพาะในเรื่องผลกระทบระยะยาวต่อมนุษยชาติ บุคคลสำคัญเช่น อีลอน มัสก์ CEO ของเทสลาและสเปซเอ็กซ์ และดาเรีย โอมอดี CEO ของบริษัทวิจัย AI ชื่อ Anthropic เตือนถึงความเสี่ยงต่อการดำรงอยู่ที่รุนแรงจาก AI โดยประมาณว่ามีโอกาสที่ AI จะทำให้มนุษย์สูญพันธุ์ได้สูงถึง 10% ถึง 25% การประเมินที่ชัดเจนเช่นนี้ชี้ให้เห็นถึงความเร่งด่วนในการสร้างกรอบกฎหมายและมาตรการด้านความปลอดภัยที่เข้มงวด เพื่อดูแลการพัฒนาและการนำ AI ไปใช้อย่างเหมาะสม อีลอน มัสก์ ซึ่งเป็นที่รู้จักในด้านผลงานสุดวิสัยทัศน์ ได้เตือนมานานเกี่ยวกับอันตรายของ AI ที่ไม่มีการควบคุม แม้จะยอมรับประโยชน์ของ AI หลายด้าน แต่เขาก็เน้นย้ำว่าหากไม่มีการดูแลอย่างถูกต้อง AI อาจล้นควบคุมของมนุษย์และนำไปสู่ผลลัพธ์ที่หายนะ มัสก์สนับสนุนการมีระเบียบกฎหมายเชิงรุกเพื่อให้ความก้าวหน้าของ AI มุ่งเน้นความปลอดภัยของมนุษย์ เช่นเดียวกัน ดาเรีย โอมอดี ก็แบ่งปันความกังวลนี้และนำทีม Anthropic มุ่งเน้นการสร้างระบบ AI ที่สามารถเข้าใจและตีความได้ ซึ่งสอดคล้องกับค่านิยมของมนุษย์ เพื่อลดความเสี่ยงจากพฤติกรรมอัตโนมัติของ AI การประมาณการความเสี่ยงของเขาสะท้อนให้เห็นถึงความรุนแรงของความคิดเห็นในชุมชน AI ที่มองว่าความก้าวหน้าของ AI ที่ไม่มีการควบคุมเป็นเรื่องที่น่ากังวลอย่างมาก แนวทางในการควบคุมได้รับความสนับสนุนมากขึ้นเรื่อย ๆ เนื่องจากระบบ AI พัฒนาขึ้นอย่างรวดเร็วและสามารถทำงานต่าง ๆ ที่เคยถือเป็นคุณสมบัติของมนุษย์ เช่น การประมวลผลภาษาธรรมชาติขั้นสูง และการตัดสินใจด้วยตัวเองในสถานการณ์ที่ซับซ้อน ถึงแม้ว่าความก้าวหน้าเหล่านี้จะนำมาซึ่งการเปลี่ยนแปลงอุตสาหกรรมและการยกระดับคุณภาพชีวิต แต่ก็ยังเป็นความท้าทายที่ไม่เคยมีมาก่อนในเรื่องความปลอดภัยและจริยธรรมของ AI นักวิชาการชี้ให้เห็นว่า หากปราศจากการควบคุม AI อาจถูกนำไปใช้ในทางผิด หรือพฤติกรรมอาจเกิดขึ้นในลักษณะที่ไม่สอดคล้องกับผลประโยชน์ของมนุษย์ ความซับซ้อนของ AI สมัยใหม่ทำให้ยากต่อการทำนายความล้มเหลวหรือผลที่ไม่ได้ตั้งใจ ทำให้เกิดความกังวลเกี่ยวกับอุบัติเหตุ หรือนำ AI ไปใช้ในทางที่ไม่ถูกต้อง และทำให้ความสำคัญของการกำกับดูแล AI สูงขึ้น เพื่อตอบสนอง แนวคิดด้านวิทยาศาสตร์และนโยบายเพิ่มขึ้นเรื่อย ๆ เรียกร้องให้มีการกำหนดกฎระเบียบ AI อย่างครอบคลุม เพื่อให้เกิดกลไกป้องกันล้มเหลว ความโปร่งใสในการออกแบบ AI และการบังคับใช้แนวทางจริยธรรมเพื่อให้การดำเนินงานของ AI สอดคล้องกับค่านิยมของสังคม การประสานงานในระดับนานาชาติเป็นสิ่งจำเป็น เนื่องจาก AI พัฒนาขึ้นและถูกนำไปใช้ในระดับโลก นอกจากการมีกฎระเบียบแล้ว การวิจัยด้านความปลอดภัยและจริยธรรมของ AI ก็เป็นเรื่องสำคัญอย่างยิ่ง ความพยายามของภาคการศึกษาและองค์กรต่าง ๆ มุ่งเน้นการพัฒนาระบบ AI ที่ทรงพลังแต่สามารถควบคุมได้และสอดคล้องกับเป้าหมายของมนุษย์ รวมถึงการตรวจสอบพฤติกรรมของ AI การเสริมความเข้าใจในการตีความ ผลกระทบด้านจริยธรรมและความปลอดภัย บทสนทนาเกี่ยวกับความเสี่ยงและกฎระเบียบของ AI สะท้อนให้เห็นถึงความท้าทายที่กว้างขึ้นในการใช้เทคโนโลยีการเปลี่ยนแปลงนี้เพื่อประโยชน์ของมนุษยชาติ ในขณะที่ AI ก้าวหน้าขึ้นอย่างรวดเร็ว การรักษาสมดุลระหว่างนวัตกรรมและความระมัดระวังเป็นสิ่งสำคัญ คำเตือนจากผู้นำเช่น มัสก์ และ โอมอดี เน้นความเร่งด่วนในการแก้ไขปัญหาเหล่านี้ โดยสรุป ความเสี่ยงประมาณ 10% ถึง 25% ของการสูญพันธุ์ของมนุษย์ที่ AI คาดว่าจะเป็นตัวการ เป็นปัญหาเร่งด่วนระดับโลกที่ต้องการความร่วมมือและดำเนินการอย่างเร่งด่วน การสร้างกรอบกฎหมายที่แข็งแรงและกลไกป้องกันเพื่อให้แน่ใจว่าการพัฒนา AI สอดคล้องกับความปลอดภัยและค่านิยมของมนุษย์เป็นสิ่งสำคัญ หากไม่ดำเนินการจัดการความเสี่ยงเหล่านี้ อาจนำไปสู่ผลลัพธ์ที่ไม่สามารถแก้ไขได้ การบริหารจัดการ AI อย่างรอบคอบและหลายมิติ จึงเป็นสิ่งจำเป็นต่ออนาคตของมนุษยชาติ