lang icon English

All
Popular
Aug. 27, 2024, 12:07 p.m. Օդուժի վարչակազմը նոր գործիք է թողարկել՝ հետևելու զարգացմանը և ծախսերին Արհեստական բանականության ծրագրերում

Օդուժի վարչության Տեղեկատվական առանձնասենյակը ներկայացրել է նոր հարթակ՝ CLARA անվամբ, նպատակ ունենալով բարձրացնել թափանցիկությունն իր արհեստական բանականության և մեքենայական ուսուցման նախաձեռնություններում: CLARA-ն ծառայում է որպես կենտրոնացված պահոց, առաջարկելով տեղեկատվություն, առաջընթացի թարմացումներ և համագործակցության հնարավորություններ AI նախագծերի հետ կապված: Վարչության նպատակն է ապահովել, որ կողմանկիցները տեղեկացված լինեն և համահունչ այս տեխնոլոգիաների հետ, որպեսզի գործունակ օգտագործումը լինի արդյունավետ: Վարչության ժամանակավոր տվյալների և AI-ի պատասխանատու Չանդրա Դոնելսոնը ընդգծեց, որ կարևոր է ապահովել պարզություն և թափանցիկ ռեսուրսների հասանելիություն յուրաքանչյուր մարտիկի համար: CLARA-ն կհետևի առաջընթացին, ծախսերին և հնարավոր կրկնակիության փնտրտուքներին, երբ վարչությունը հետազոտում և կիրառական է AI նորամուծությունները: Կենտրոնացված հարթակը, ստեղծված ապրիլին, ապահովում է տեղեկատվություն քաղաքականությունների, ռազմավարության, ուսուցման, կրթության վերաբերյալ, ինչպես նաև հնարավորություն է տալիս օդաչուներին և պահակներին փորձարկել Արհեստական բանականության գործարկաման տեխնոլոգիաները AI Exchange App Store-ի միջոցով: Նշելի գործիքներից է NIPRGPT 1

Aug. 27, 2024, 9:21 a.m. Ինչու՞ ԱԲ-ն չի կարող գրել «ելակ» բառը

Համաձայն GPT-4o և Claude հզոր ԱԲ մոդելների, «ելակ» բառի ներսում առկա է «r» տառը երկու անգամ: Սակայն այս մոդելները, հայտնի որպես մեծ ոճաբանական մոդելներ (LLMs), ունեն սահմանափակումներ գրառման հասկացությունները, հայտնաբերվում է, որ նրանք չունեն իրական ուղեղներ և հենվում են տեքստային թվային ներկայացումների վրա: LLM-ները հիմնված են փոխակերպիչների վրա, որոնք բաժանում են տեքստը տոքենների, սակայն նրանք արդյունավետորեն չեն հասկանան տառերը առանձին: Այս խնդիրը խորը կապված է LLM-ի ճարտարապետության հետ, որը դժվարացնում է այն ուղղելու հարցում: Տոքենացվական մեթոդները և լեզվաբանական բարդությունները հետագա բարդացնում են խնդիրը: Ուղեցույց ձև ստեղծողները, ընդհակառակը, օգտագործում են դիֆուզիոն մոդելներ և հանդիպում են տարբեր մարտահրավերներ կապված մանրամասների հետ: OpenAI-ն մշակում է նոր ԱԲ արտադրանք «Strawberry»-ը, որը պետք է բարելավի ռեզոնեանս կարողությունները, մինչ Google DeepMind-ն ստեղծել է «AlphaProof» և «AlphaGeometry 2» ֆորմալ մաթեմատիկական ռեզոնեանս համար: Այս համակարգերը ցուցադրել են ուժեղ կատարողականություն խնդիրների լուծման մարտահրավերներում:

Aug. 27, 2024, 5:53 a.m. Ուսանողները լուծում են իրական խնդիրները ամառային ԱԻ հետազոտություններով

Ռունդենշտայների գլխավոր հետազոտողի (PI) եւ համագլխող PI Կելսի Բրիգսի, Տվյալագիտության ծրագրերի և ռազմավարական նախաձեռնությունների տնօրենի գլխավորությամբ, ամառային ծրագիրը հիմնված է WPI ամառային տվյալագիտության հետազոտական ծրագրերի նախորդ ութ տարիների վրա: Այն նաեւ ցուցադրել է WPI-ի լայնածավալ աշխատանքը մեքնագիտական ուսուցման, խորքային ուսուցման եւ գեներացնող մոդելավորման ոլորտներում: Ծրագրի ընթացքում ուսանողները աշխատել են թիմերով՝ WPI-ի դասախոսական խորհրդատուներ Ֆաբրիսիո Մուրաիի, Չուն-Կիտ Նգանի, Ձիմինգ Չժանքի եւ Ռունդենշտայների եւ ինչպես նաեւ մագիստրանտների ղեկավարությամբ: Նրանք աշխատել են իսկական հետազոտական թեմաների վրա, որոնք ընդգրկել են լայն առումով առարկաներ: Մասնակցելու համար, ուսանողները անցնում են հայտի գործընթացի միջով, ներառյալ շարադրանքը ներկայացում: Ընդունելուց հետո, նրանց ապահովվել է տեղաբաշխում համալսարանային բնակեցարանում, աջակցություն եւ ճանապարհածախսի վերականգնում: Հարավային Կալիֆոռնիայի համալսարանի 2027 թ

Aug. 27, 2024, 5:09 a.m. Ոստիկանական ծառայողները սկսել են օգտագործել ԱԻ զրուցարաններ հանցագործությունների մասին զեկույցների նախաօրդ կազմելու համար։ Կպահպանի՞ դրանք դատարաններում։

Օկլահոմա Սիթի-ի ոստիկանության վարչությունը սկսել է օգտագործել Աքսոնի կողմից մշակված Draft One կոչված ԱԻ զրուցարանը՝ դեպքերի մասին զեկույցների նախնական տարբերակներ կազմելու համար։ ԱԻ գործիքը վերլուծում է ձայներն ու ռադիոհեռագիրը, որոնք արձանագրվում են մարմնի տեսախցիկներով, արագորեն կազմելով ճշգրիտ զեկույցներ։ Չնայած ոստիկանության ծառայողները ոգևորված են այս ժամանակավոր տեխնոլոգիայով, դատախազները, ոստիկանության վերահսկող կառույցները և իրավաբանական գիտնականները մտահոգություններ են հայտնել կրիական արդարադատության համակարգում կարևոր փաստաթղթի վրա դրա ազդեցության վերաբերյալ։ ԱԻ-ով ստեղծված ոստիկանական զեկույցների օգտագործումը դեռևս նոր և հիմնականում չկանոնավորված ոլորտ է, որը ներառում է ռիսկեր, ինչպիսիք են կողմնակալության և կեղծ տեղեկատվության ներառումը։

Aug. 27, 2024, 4 a.m. AI Կարող Է Մի օր Պանդեմիա Սարքել, Մասնագետները Զգուշացնում են

Վերջին շրջանի առաջխաղացումները կենսաբանական տվյալների վրա հիմնված մասնագիտացված AI մոդելներում ներուժ ունեն հեղափոխել պատվաստանյութերի զարգացումը, հիվանդությունների բուժումը և բույսերի ինժիներինգը: Այնուհանդերձ, այս մոդելները նաև վտանգներ են ներմուծում, քանի որ անհրաժեշտ է հասկանալ վնասակար տարրերը անվտանգ լուծումներ նախագծելու համար: Այդ մտահոգությունները լուծելու նպատակով, մասնագետները կոչ են անում կառավարություններին իրականացնել հսկողություն և կանոնակարգումներ առաջադեմ կենսաբանական մոդելների համար: Science-ում հրապարակված քաղաքականության փաստաթղթի հեղինակները պաշտպանվում են կառավարման համակարգերի հաստատման համար, որպեսզի մեղմացնեն AI համակարգերի, որոնք ունակ են հասցնել պանդեմիա առաջացնողների, հնարավոր վտանգը: Կենսաբանական միջոցների զենքացման պատմությունը հիշեցնում է արդյունավետ կանոնակարգումների կարևորությունը: Չնայած Կենսաբանական Զենքերի Կոնվենցիան նպատակ ուներ լուծել այս հարցը, հզոր AI համակարգերի առաջացումը ստեղծում է նոր մարտահրավերներ: AI մոդելները հարստացնում են չարամիտ գործիչների և նույնիսկ բարի նպատակներ ունեցող հետազոտողների հնարավորությունները, և կարևոր է ծրագրվել ու հաստատել կառուցողական կառավարության հսկողություն: Հեղինակները առաջարկում են պարտադիր սկրինինգի պահանջներ և համագործակցություն մեքենայական ուսուցման, վարակիչ հիվանդությունների և էթիկայի մասնագետների հետ՝ գնահատելու կենսաբանական AI մոդելները պանդեմիայի մակարդակի ռիսկերի համար: Փոխանակման գնահատումները և սահմանափակված հասանելիությունը նույնպես կարող են օգտագործվել այս մոդելների հետ կապված ռիսկերը կառավարելու համար: Միջազգային համագործակցությունը անհրաժեշտ է կենսաբանական AI-ի կողմից առաջադրված գլոբալ վտանգների պատճառով: Մինչև կառավարական խախտումներ ճանաչելը ցանկալի է, առաջադեմ AI տեխնոլոգիա ունեցող երկրները պետք է առաջնահերթ համարեն արդյունավետ գնահատումները, նույնիսկ եթե դա վտանգում է միջազգային միատարրությունը:

Aug. 27, 2024, 2:30 a.m. Արհեստական բանականության գիշերը իրենց մեծ պահի անմիջապես ունեցավ

2016 թվականին, Արհեստական բանականության անվտանգության համայնքը փոքր էր, բաղկացած մոտավո 50 մարդուց, ավելի շուտ գիտաֆանտաստիկայի մշակույթից նմանակում քան ճիշտ դիսցիպլինա։ Սակայն, երբ խորը սովորության հեղափոխությունը առաջացավ, ավելի շատ մարդիկ սկսեցին անհանգստանալ արհեստական բանականության վտանգների մասին։ Երբ 2022 թվականին ChatGPT ազատվեց, ԱԻ-վտանգների մասնագետները ստացան մշակութային մեջավորություն և իրենց անհանգստությունները լսուվեցին հասարակության և քաղաքական դերակատարների կողմից։ Սակայն ժամանակի ընթացքում հասարակության հետաքրքրությունը իջավ, և ԱԻ-անվտանգության համայնքը կորսնեց գրավչությունը։ Չնայած դրան, ԱԻ-վտանգների մասնագետները որոշ հաջողություններ ունեցան՝ տեղեր ստանալով խոշոր ԱԻ լաբորատորիաներում և մասնակցել օրենքների ընդունմանը։ Սակայն ներքին կոնֆլիկտներն ու կառավարման խնդիրները խախտեցին նրանց ջանքերը, օրձանք առաջացնելով համայնքի ներսում։ Արհեստական բանականության ապագան դեռևս մնում է անորոշ, և մասնագետները սովորել են կարևոր դասեր ընթացքի և կառավարման մասին ԱԻ-դաշտում։

Aug. 27, 2024, 1:46 a.m. Կանխատեսում: 3 արհեստական ​​ինտելեկտի (AI) բաժնետոմսեր, որոնք կարող են լինել ավելի թանկ, քան Nvidia-ն 3 տարվա ընթացքում

Nvidia-ն անցել է ահռելի աճ, AI-ի հետ կապված ապրանքների և ծառայությունների բարձր պահանջարկի պատճառով: Այնուամենայնիվ, կան այլ ընկերություններ, որոնք կարող են ներքաշված մոտավորապես Nvidia-ի արժեքը հաջորդ երեք տարում: 1