lang icon En

All
Popular
Aug. 27, 2024, 5:09 a.m. Ոստիկանական ծառայողները սկսել են օգտագործել ԱԻ զրուցարաններ հանցագործությունների մասին զեկույցների նախաօրդ կազմելու համար։ Կպահպանի՞ դրանք դատարաններում։

Օկլահոմա Սիթի-ի ոստիկանության վարչությունը սկսել է օգտագործել Աքսոնի կողմից մշակված Draft One կոչված ԱԻ զրուցարանը՝ դեպքերի մասին զեկույցների նախնական տարբերակներ կազմելու համար։ ԱԻ գործիքը վերլուծում է ձայներն ու ռադիոհեռագիրը, որոնք արձանագրվում են մարմնի տեսախցիկներով, արագորեն կազմելով ճշգրիտ զեկույցներ։ Չնայած ոստիկանության ծառայողները ոգևորված են այս ժամանակավոր տեխնոլոգիայով, դատախազները, ոստիկանության վերահսկող կառույցները և իրավաբանական գիտնականները մտահոգություններ են հայտնել կրիական արդարադատության համակարգում կարևոր փաստաթղթի վրա դրա ազդեցության վերաբերյալ։ ԱԻ-ով ստեղծված ոստիկանական զեկույցների օգտագործումը դեռևս նոր և հիմնականում չկանոնավորված ոլորտ է, որը ներառում է ռիսկեր, ինչպիսիք են կողմնակալության և կեղծ տեղեկատվության ներառումը։

Aug. 27, 2024, 4 a.m. AI Կարող Է Մի օր Պանդեմիա Սարքել, Մասնագետները Զգուշացնում են

Վերջին շրջանի առաջխաղացումները կենսաբանական տվյալների վրա հիմնված մասնագիտացված AI մոդելներում ներուժ ունեն հեղափոխել պատվաստանյութերի զարգացումը, հիվանդությունների բուժումը և բույսերի ինժիներինգը: Այնուհանդերձ, այս մոդելները նաև վտանգներ են ներմուծում, քանի որ անհրաժեշտ է հասկանալ վնասակար տարրերը անվտանգ լուծումներ նախագծելու համար: Այդ մտահոգությունները լուծելու նպատակով, մասնագետները կոչ են անում կառավարություններին իրականացնել հսկողություն և կանոնակարգումներ առաջադեմ կենսաբանական մոդելների համար: Science-ում հրապարակված քաղաքականության փաստաթղթի հեղինակները պաշտպանվում են կառավարման համակարգերի հաստատման համար, որպեսզի մեղմացնեն AI համակարգերի, որոնք ունակ են հասցնել պանդեմիա առաջացնողների, հնարավոր վտանգը: Կենսաբանական միջոցների զենքացման պատմությունը հիշեցնում է արդյունավետ կանոնակարգումների կարևորությունը: Չնայած Կենսաբանական Զենքերի Կոնվենցիան նպատակ ուներ լուծել այս հարցը, հզոր AI համակարգերի առաջացումը ստեղծում է նոր մարտահրավերներ: AI մոդելները հարստացնում են չարամիտ գործիչների և նույնիսկ բարի նպատակներ ունեցող հետազոտողների հնարավորությունները, և կարևոր է ծրագրվել ու հաստատել կառուցողական կառավարության հսկողություն: Հեղինակները առաջարկում են պարտադիր սկրինինգի պահանջներ և համագործակցություն մեքենայական ուսուցման, վարակիչ հիվանդությունների և էթիկայի մասնագետների հետ՝ գնահատելու կենսաբանական AI մոդելները պանդեմիայի մակարդակի ռիսկերի համար: Փոխանակման գնահատումները և սահմանափակված հասանելիությունը նույնպես կարող են օգտագործվել այս մոդելների հետ կապված ռիսկերը կառավարելու համար: Միջազգային համագործակցությունը անհրաժեշտ է կենսաբանական AI-ի կողմից առաջադրված գլոբալ վտանգների պատճառով: Մինչև կառավարական խախտումներ ճանաչելը ցանկալի է, առաջադեմ AI տեխնոլոգիա ունեցող երկրները պետք է առաջնահերթ համարեն արդյունավետ գնահատումները, նույնիսկ եթե դա վտանգում է միջազգային միատարրությունը:

Aug. 27, 2024, 2:30 a.m. Արհեստական բանականության գիշերը իրենց մեծ պահի անմիջապես ունեցավ

2016 թվականին, Արհեստական բանականության անվտանգության համայնքը փոքր էր, բաղկացած մոտավո 50 մարդուց, ավելի շուտ գիտաֆանտաստիկայի մշակույթից նմանակում քան ճիշտ դիսցիպլինա։ Սակայն, երբ խորը սովորության հեղափոխությունը առաջացավ, ավելի շատ մարդիկ սկսեցին անհանգստանալ արհեստական բանականության վտանգների մասին։ Երբ 2022 թվականին ChatGPT ազատվեց, ԱԻ-վտանգների մասնագետները ստացան մշակութային մեջավորություն և իրենց անհանգստությունները լսուվեցին հասարակության և քաղաքական դերակատարների կողմից։ Սակայն ժամանակի ընթացքում հասարակության հետաքրքրությունը իջավ, և ԱԻ-անվտանգության համայնքը կորսնեց գրավչությունը։ Չնայած դրան, ԱԻ-վտանգների մասնագետները որոշ հաջողություններ ունեցան՝ տեղեր ստանալով խոշոր ԱԻ լաբորատորիաներում և մասնակցել օրենքների ընդունմանը։ Սակայն ներքին կոնֆլիկտներն ու կառավարման խնդիրները խախտեցին նրանց ջանքերը, օրձանք առաջացնելով համայնքի ներսում։ Արհեստական բանականության ապագան դեռևս մնում է անորոշ, և մասնագետները սովորել են կարևոր դասեր ընթացքի և կառավարման մասին ԱԻ-դաշտում։

Aug. 27, 2024, 1:46 a.m. Կանխատեսում: 3 արհեստական ​​ինտելեկտի (AI) բաժնետոմսեր, որոնք կարող են լինել ավելի թանկ, քան Nvidia-ն 3 տարվա ընթացքում

Nvidia-ն անցել է ահռելի աճ, AI-ի հետ կապված ապրանքների և ծառայությունների բարձր պահանջարկի պատճառով: Այնուամենայնիվ, կան այլ ընկերություններ, որոնք կարող են ներքաշված մոտավորապես Nvidia-ի արժեքը հաջորդ երեք տարում: 1

Aug. 26, 2024, 10 p.m. Apple-ը պատրաստվում է թողարկել «Apple Intelligence»՝ հավակնոտ արհեստական բանականության (AI) նախաձեռնություն

Apple-ը պատրաստվում է թողարկել «Apple Intelligence»՝ հավակնոտ արհեստական բանականության (AI) նախաձեռնություն, որը կարող է հեղափոխել թվային առևտուրը: Երբ մյուս տեխնոլոգիական հսկաներ՝ Google-ը, Microsoft-ը և Meta-ն իրենց հարթակներում ինտեգրում են AI, Apple-ը նույնպես սկսել է իր քայլերը AI տարածքում: Apple Intelligence-ի կենտրոնական մասում գտնվում է Siri-ի արդիականացված տարբերակը, որը հիմնված է OpenAI-ի հետ համագործակցության վրա: AI հատկությունները կհայտնվեն iOS 18-ում, որը կթողարկվի նոր iPhone մոդելների հետ միասին սեպտեմբերին: AI բարելավումները ներառում են բնական լեզվի մշակման բարելավվում, AI-ի միջոցով բարելավված գրելու գործիքներ, կոնտեքստ-հարմարվետ պատասխանների առաջարկություններ, էլեկտրոնային փոստի հայդուկներ և իրական ժամանակի հեռախոսային զրույցի անվտանգարկման գործառույթներ: Հաջորդ առանձնահատկությունները ներառում են AI-ի միջոցով պատկերի ստեղծման և խմբագրման գործիք՝ «Image Playground», և մաքսանիշային էմոջի ստեղծող՝ «Genmoji»: Apple-ի AI ինտեգրումը կարող է հեղափոխել շարժական առևտուրը՝ առաջարկելով անհատականացված գնումների փորձառություններ և բարելավելով Apple Pay-ի AI-կառավարված բյուջետավորման խորհուրդներով և ծախսերի վերլուծությամբ: Բայց անձնական տվյալների հավաքման շուրջ մտահոգություններ են առաջանում AI գործառությունների համար: Apple-ի առաջարկի համապատասխան լուծումը ներառում է սարքի վրա մշակումը և Siri-ի ակտիվության համար նոր տեսողական նշանավորումներ: Եթե հաջողվի, Apple-ի AI նախաձեռնությունը կարող է ստեղծել նոր եկամուտների հոսքեր և փոխել մանրածախ և մարկեթինգային լանդշաֆտը, ընդզիառնելով անձնական AI առաջարկները, որոնք հավանաբար կփոխարինեն ավանդական գովազդային մեթոդներին: Apple Intelligence-ի հաջողությունը կախված կլինի տեխնոլոգիական հմտությունից, օգտատիրոջ վստահությունից և էթիկական հարցադրումներից: Այլ ընկերները, որոնք նվիրված են AI-ի աճի ռազմավարություններին, կցուցաբերեն հետևողական զարգացումներ տեխնոլոգիական ոլորտում:

Aug. 26, 2024, 4:11 p.m. Կալիֆորնիայի AI օրենքը առաջացնում է քննարկումներ Սիլիկոնյան հովտում, քանի որ որոշ տեխնոլոգիական հսկաներ դա կոչում են նորարարության սպառնալիք

Կալիֆորնիայում նորանոր AI օրենքը բախումներ է առաջացնում AI առաջատարների միջև: Օրենքը, SB 1047, նպատակաուղղված է պատասխանատվություն գցել մշակողների վրա, որոնք կառուցում են ավելի քան $100 միլիոն արժողությամբ AI մոդելներ: Այն ներառում է անվտանգության փորձարկումների պահանջներ, պաշտպանական միջոցներ ներդնումը և նահանգի գլխավոր դատախազի կողմից միջոցներ ձեռնարկելու հնարավորություն՝ եթե AI մոդելները առաջացնեն լուրջ վնասներ կամ ընդհանրական վնասներ: Օրենքը նաև առաջարկում է անկախ աուդիտներ, անջատիչ համակարգեր և հավաստիացումներ բանազերծողների համար: Պետական Սենատոր Սքոթ Վիները, նրա հեղինակներից մեկը, պաշտպանել է օրենքը ընդդիմադիրների դեմ՝ մեղադրելով նրանց վախեցնելու մեջ: Օրենքը անցել է պետության Սենատով և սպասում է Քաղաքային Ժողովի քվեարկության նախքան վերադարձը վերջին քվեարկության համար Սենատում: Կառավարիչ Գևին Նյուսոմի կարծիքը անհայտ է: Նշանաձորեն, Իլոն Մասկը և Անտրոպիկը օժանդակել են օրենքին, իսկ ՕփենԱԻ-ն դեմ է օրենքին՝ այն համարելով դաշնային հարց: Google-ը, Meta-ն, Andreessen Horowitz-ը և այլ նշանավոր ֆիգուրաներ կարծում են, որ օրենքը սպառնում է նորարարությանը և հետազոտություններին: Վիները ողջունում է դաշնային կարգավորումը, բայց ընդունում է, որ Կոնգրեսի գործողությունը կարիքավորված է: Եթե անցնի, SB 1047-ը կդառնա առաջին իսկական AI կարգավորումը ԱՄՆ-ում:

Aug. 26, 2024, 3:15 p.m. Բեկումնային օրենսդրական նախագիծ, որը նպատակաուղղված է նվազեցնելու ԱԲ-ի պոտենցիալ կատակլիզմիկ վտանգները, կամ կփրկի կյանքեր կամ կկառքի ինովացիան

Կալիֆորնիայի Սենատի Օրենսդրական Նախագիծ 1047-ը, որը ներկայացրել է նահանգի սենատոր Սքաթ Ուիները, բեկումնային առաջարկ է, որը ԱԲ ընկերություններին պարտադրում է անցկացնել անվտանգության թեստավորում՝ մոդելներ կազմելու դեպքում: Նախագիծը, որը հայտնի է որպես «Առաջնորդական Արհեստական Բանականության Մոդելների Անվտանգ և Հուսալի Ինովացիայի Օրենք», լայն ուշադրություն է ստացել Սիլիկոնյան Հովտից դիմադրության և ինովացիան ձանձրացնելու վտանգի պատճառով: OpenAI-ը և այլ ԱԲ մշակողները պնդում են, որ ԱԲ կարգավորումը պետք է լինի դաշնային կառավարության պատասխանատվությունը և նշում են, որ ընկերությունները կարող են լքել Կալիֆորնիան, եթե օրենսդրական նախագիծն ընդունվի: Չնայած որոշ փոփոխությունների, որոնք կատարվել են արդյունաբերության քննադատությանը պատասխանելու համար, Ուիները պնդում է, որ նախագիծը պահպանում է հավասարակշռությունը՝ նպաստելու ինովացիան և լուծելու հզոր տեխնոլոգիաների բնույթային վտանգները: Նախագիծը պարտադրում է ընկերություններին իրականացնել անվտանգության միջոցառումներ, ինչպիսին են «ամբողջական անջատում» հնարավորության հաստատումը, տեխնիկական պլանի մշակումն՝ վտանգները լուծելու համար, և անցնել երրորդ կողմի աուդիտ: Չի պահակվելու դեպքում կարող են լինել քաղաքակրթական տուգանքներ և Կալիֆորնիայի գլխավոր դատախազին հաշվետվություններ: Քննադատողները պնդում են, որ նախագիծը ստեղծում է ծանրաբեռնված պարտավորություններ, իսկ կողմնակիցները նշում են, որ դա նպաստում է ԱԲ անվտանգությանն առանց առաջադիմությունը հետ պահելու: Նախագիծը սպասվում է քվեարկության նահանգային ասամբլեայում, և եթե ընդունվի, կներկայացվի նահանգապետի Գևին Նյուսոմի հաստատմանը: