OpenAI-ն խիստ գաղտնի է պահում իր վերջին ԱԲ մոդելի, «Strawberry» ընտանիքի մասին տեղեկատվությունը, հատկապես՝ դրանց մտածողության կարողությունների մասին o1-preview և o1-mini տարբերակներում: Դրանց անցած շաբաթվա թողարկումից ի վեր, ընկերությունը զգուշացնող նամակներ է ուղարկում այն օգտագործողներին, որոնք փորձում են ուսումնասիրել մոդելի աշխատանքները, ինչն ավելի վաղ մոդելների, ինչպես GPT-4o-ի դեպքում չէր նկատվում: O1 մոդելները հատուկ նախագծված են, որպեսզի հետևեն համակարգված խնդիրների լուծման մեթոդին, նախքան պատասխաններ տալը: Թեև օգտագործողները կարող են ընտրել դիտել մտածողության գործընթացը ChatGPT-ում, OpenAI-ն գիտակցաբար մթագնում է պարզ մտածողության ընթացքը, առաջարկելով միայն ֆիլտրված տարբերակ, որը ստեղծված է այլ ԱԲ-ից: Այս անթափանցությունն առաջացրել է հետաքրքրություն հաքերների և կարմիր թիմերի միջավայրում, ովքեր հետաքրքրված են բացահայտելու հիմնավոր մտածողության տեխնիկաների միջոցով, ինչպիսիք են բանտախախթումը և հրամանների ներարկումը: Առաջին հաջողություններ տարբեր կան, բայց դեռ վերջնական արդյունքներ չկան: Միևնույն ժամանակ, OpenAI-ն ուշադիր հետեւում է մտածողության արտաքին շերտերի ավելի խորը ուսումնասիրությունների փորձերին և զգուշացումներ ուղարկում այն օգտագործողներին, ովքեր նշում են «մտածողության հետագծի» նման տերմինները: Զգուշացումները ընդգծում են անվտանգության միջոցների շրջանցման խախտումների մասին, մատնանշելով, որ կրկնվող խախտումները կարող են հանգեցնել մոդելի հասանելիության կորստի: Քննադատները, ներառյալ Մարկո Ֆիգուրոան, պնդում են, որ այդպիսի քաղաքականությունները կարող են վնասել մոդելի անվտանգության հետազոտության օգտակարությունը: OpenAI-ն բլոգի գրառման մեջ, որը վերնագրված է «Սովորելով մտածել LLM-ների հետ», քննարկում է այն, թե ինչպես թաքնված մտածողության շղթաները դիտելը կարող է տրամադրել մոդելի գործընթացների ինտուիցիա: Սակայն նրանք գտնում են, որ այս տեղեկատվությունը բաժանելը օգտատերերին կարող է վնասել օգտատերային փորձառությունը և մրցակցային առավելությունը: Անկախ ԱԲ հետազոտող Սայմոն Ուիլիոսոնը արտահայտել է անհանգստություն թափանցելիության բացակայության մասին, պնդելով, որ որոշումը խոչընդոտում է համայնքի կարևոր գիտելիքներ ձեռք բերելու հնարավորությունը մոդելի աշխատանքների վերաբերյալ: ընդհանուր առմամբ, իրավիճակը արտահայտում է շարունակվող լարվածություն սեփականատիրական շահերի և ԱԲ մշակման թափանցելիության պահանջի միջև:
Հարցման համաձայն, ընդհանուր բժշկներից (GPs) մեկ հինգերորդը օգտագործում են արհեստական բանականություն (AI) գործիքներ, ներառյալ ChatGPT-ը, որպեսզի օգնեն նամակների կատարման գործում, որոնք նշանակվում են հիվանդների հետ հանդիպումների հետո: Հետազոտությունները, որոնք հրատարակվել են BMJ Health and Care Informatics ամսագրում, հիմնված են 1,006 բժիշկների պատասխանների վրա: Նրանց հարցրել են իրենց փորձառությունների մասին արհեստական բանականության համակարգերի գործնականում, նման են ChatGPT, Bing AI, կամ Google's Gemini, և ինչ նպատակներով դրանք օգտագործում են: Հարցվածների քսան տոկոսը զեկուցել են, որ օգտագործում են գեներատիվ արհեստական բանականության գործիքներ իրենց պրակտիկայում, և նրանցից մոտ մեկ երրորդը (29%) օգտագործում են այդ գործիքները հիվանդների այցերից հետո փաստաթղթեր գրելու համար, մինչդեռ 28%-ը նշել են, որ օգտագործում են դրանք այլընտրական ախտորոշումների առաջարկների համար: Բացի այդ, հարցվածների մեկ քառորդը օգտագործում են արհեստական բանականության գործիքները հիվանդների համար բուժման պլաններ առաջարկելու համար: Այս գեներատիվ արհեստական բանականության ծրագրերը, ինչպես ChatGPT-ը, գործում են՝ ապահովելով գրավոր պատասխաններ ծրագրի խնդիրներին ուղղված հարցերին: Հետազոտողները եզրակացրել են, որ արդյունքները ցույց են տալիս, որ բժիշկները կարող են գտնել արժեք այս գործիքներում, հատկապես վարչական խնդիրների համար և բժշկական մտածողությունը բարելավելու համար: Այնուամենայնիվ, նրանք նշել են հիվանդների գաղտնիության հնարավոր վտանգները, հայտարարելով, «անհասկանալի է, թե ինչպես ինտերնետային ընկերությունները, որոնք կանգնած են գեներատիվ արհեստական բանականության հետևում, օգտագործում են նրանց հավաքած տեղեկությունները»: Նրանք նաև նշել են, «Թեպետ կարգավորող գործողությունները աճում են այս համակարգերի նկատմամբ, օրենքի և գործնական օգտագործման միջև միջակայքը մնում է անհստակ»
Microsoft-ը և BlackRock-ը այն ընկերությունների կոալիցիայի մաս են կազմում, որոնք միավորվել են՝ մինչև 100 միլիարդ դոլար հավաքելու տվյալների կենտրոնների զարգացման համար, որոնք նվիրված են արհեստական բանականությանը, ինչպես նաև նրանց աջակցող էներգետիկ ենթակառուցվածքի համար։ Այս համագործակցությունը՝ Գլոբալ Արհեստական Բանականության Ենթակառուցվածքային Ներդրումային Գործընկերություն (GAIIP), հայտարարվեց երեքշաբթի մամուլի հաղորդագրության մեջ։ Այլ հիմնական մասնակիցներ ներառում են Global Infrastructure Partners (GIP), ենթակառուցվածքային ներդրող, որը ձեռք է բերվում BlackRock-ի կողմից, և MGX, տեխնոլոգիաների վրա կենտրոնացած ներդրող Միացյալ Արաբական Էմիրություններում։ «Մենք նվիրված ենք ԱԲ-ի կիրառմանը՝ նորարարություն խթանելու և տնտեսության բոլոր ոլորտներում աճ առաջացնելու համար», - ասաց Microsoft-ի Գլխավոր գործադիր տնօրեն Սաթյա Նադելլան։ Նա ընդգծեց, որ այս նախաձեռնությունը միավորում է ֆինանսական և արդյունաբերական առաջնորդներին՝ ապագայի համար կայուն ենթակառուցվածք ստեղծելու համար։ Կոնսորցիումի նախնական նպատակն է մոբիլիզացնել 30 միլիարդ դոլար կապիտալ, հույսերով վերջում հասնել մինչև 100 միլիարդ դոլարի, որում ներառված լինեն նաև պարտքային ֆինանսավորումը։ Տեխնոլոգիական ընկերությունները սուր մրցակցություն են մղում Nvidia գրաֆիկական մշակման միավորներով (GPU) հագեցած տվյալների կենտրոններ կառուցելու համար, որոնք կարող են աշխատել գեներատիվ ԱԲ մոդելներով, ինչպիսին է OpenAI-ի ChatGPT-ն։ Այս GPU-ների բարձր էներգիայի պահանջարկը և պահանջարկի աճը հանգեցրել են նոր օբյեկտների ստեղծման խոչընդոտին։ Microsoft-ի ներդրումը ավելացնում է կապիտալի ծախսերը, որոնք անհրաժեշտ են Azure հանրային ամպային ենթակառուցվածքի ընդլայնման համար, որը ծառայում է OpenAI-ին և այլ ԱԲ հաճախորդներին։ Հուլիսին Microsoft-ը հայտարարեց, որ չորրորդ ֆինանսական եռամսյակի կապիտալի ծախսերը, ներառյալ ֆինանսական լիզինգով ձեռք բերված ակտիվները, հասել են 19 միլիարդ դոլարի։ Այս տարվա սկզբին BlackRock-ը հայտարարեց իր պլանը՝ գնել GIP-ը 3 միլիարդ դոլարով կանխիկ գումարով և մոտ 12 միլիոն բաժնետոմսերով BlackRock-ի սովորական բաժնետոմսերի։ Անցյալ շաբաթ BlackRock-ը հայտարարեց, որ ակնկալում է, որ գործարքը կավարտվի հոկտեմբերի 1-ին։
Մղձավանջային ժամանակներ դեռևս մեզ մոտ են, նույնիսկ մինչև Հելոուին, քանի որ գեներատիվ ԱԻ դաշտը առաջացնում է մտահոգություն: Վերջերս OpenAI-ի ChatGPT շոկ առաջացրեց օգտագործողների մոտ, սկսելով խոսակցություններ, որը անսովոր բան էր, քանև երբ խոսակցությունները սովորաբար սկսվում էին օգտագործողների կողմից։ Բարի պատճառն այն է, որ սա սա նշանակալի է: Սովորաբար, գեներատիվ ԱԻ սպասում է օգտագործողի ներտուփերին, նման է Alexa-ի կամ Siri-ի, որոնք պահանջում են առաջքաշման ՛̃աորս, որպեսզի ակտիվանան: Թերությունները հայտնաբերվել են, երբ ChatGPT ցավագրանցել է չավարտված հաղորդագրություններից հետո: OpenAI-ն բացատրեց, որ դա ժամանակավոր խնդիր էր և ոչ մի այդպիսի իրողության չէին սպասում, ինչն էլ համացանցի տարբեր հատվածներում առաջացրել է տարբեր արձագանքներ: Ոմանք վստահեցին, որ սա նման էր խուսափման կամ ԱԻ գիտակցությանը, իսկ մյուսները ուրախացան հնարավոր զարգացումների առшընելույթի պատճառով։ Քանի որ ես բազմաթիվ հոդվածներ եմ գրել ԱԻ-ի թեմաներով, ես ստացա հարցումներ ԱԻ-ի խոսակցությունները առաջինը սկսելու հետևանքների մասին: Մի քանի հիմնական հարցումներն ու պատասխանները այսպիսի են: 1
Երեքշաբթի օրը Google-ը ներկայացրեց բովանդակության վերահտատեսման տեխնոլոգիայի կիրառումն իր արտադրանքների մեջ, նպատակ ունենալով օգնել օգտատերերին տարբերակել մարդու կողմից ստեղծված և AI-ի կողմից ստեղծված պատկերները: Առաջիկա ամիսների ընթացքում ընկերությունը կներառի Բովանդակության ծագումնաբանության և հավաստիության կոալիցիա (C2PA) ստանդարտը, որը հետագծում է թվային բովանդակության ծագումն ու խմբագրման պատմությունը, իր որոնման, գովազդային և հնարավոր է YouTube ծառայությունների մեջ: Այդ տեխնոլոգիական մոտեցման արդյունքում առկա հարցերի լուծումը հստակ չէ: C2PA համակարգը, որը մշակված է տեխնոլոգիական ընկերությունների կոալիցիայի կողմից 2019 թվականից, նպատակ ունի պայքարել խաբուսիկ սինթետիկ մեդիայի աճի դեմ, քանի որ AI-ի կողմից ստեղծված բովանդակությունը ավելի իրական է դառնում: Այս ստանդարտը ապահովում է թվային ուղի բովանդակության համար, օնլայն ստորագրող մարմնի աջակցությամբ, որը մանրամասնում է պատկերների ծագումը և փոփոխությունները: Google-ը կօգտագործի C2PA ստանդարտը որոնման արդյունքներում, հնարավորություն ընձեռելով օգտատերերին հայտնաբերել՝ արդյոք պատկերը ստեղծված է կամ փոփոխված է AI գործիքների միջոցով, որը ցուցադրվում է «Այս պատկերի մասին» ֆունկցիայի միջոցով Google Search-ում, Lens-ում և Circle to Search-ում: Ջորջ Ռիչարդսոն, Google-ի վստահության և անվտանգության փոխնախագահը, նշեց բովանդակության ծագումնաբանության հաստատման մարտահրավերները պլատֆորմներում, ընդգծելով դաշտային համագործակցության անհրաժեշտությունը հուսալի լուծումներ մշակելու համար: Google-ը նախատեսում է կիրառել C2PA-ի 2
Արհեստական բանականությունը (ԱԲ) նախատեսվում է զգալի կերպով փոխակերպել բժշկությունը, մի տեսակետ, որն ընկա բացատրում է իմ գրքում *Արհեստական Բանականության Վարպետացում: Մեր Սուպերուժով Ապագայի Հասցման Ուղեցույցը*: Սակայն, իր ամբողջական պոտենցիալն օգտագործելու համար մենք պետք է զգույշ լինենք ԱԲ նախագծման, իրականացման եւ կարգավորման մեջ առողջապահության ոլորտում.
Երկուշաբթի օրը, Կալիֆորնիայի կառավարիչ Գևին Նյուսոմը այցելեց SAG-AFTRA-ի կենտրոնակայանը՝ ստորագրելու երկու նոր օրենքներ, որոնք նպատակ ունեն կարգավորելու արհեստական բանականությամբ ստեղծած կատարումների օգտագործումը: Դերասանների միությունը աջակցել է այս օրենսդրությանը, որը հենվում է անցած տարինների գլխավոր ստուդիաների դեմ դերասանների չորսամսյա գործադուլի ընթացքում հաստատված պաշտպանական միջոցների վրա: Այս օրենքները լայնացնում են պաշտպանությունները՝ ներառելով ձայնագրություններ, գովազդներ և վիդեո խաղերում ներկայացումներ: «Մենք անցնում ենք անսպասելի տարածք, երբ ԱԻ-ն և թվային մեդիան վերափոխում են ժամանցի ոլորտը, բայց մեր գլխավոր նպատակը աշխատողների պաշտպանությունը մնում է անփոփոխ», - նշեց Նյուսոմը: «Այս օրենսդրությունը թույլ է տալիս ոլորտին ծաղկել, միաժամանակ աշխատողների համար ստեղծելով անվտանգության ավելի բարձր մակարդակ՝ կապված իրենց անձնական նկարագրի օգտագործման հետ»: Իրական ժամանակում, Նյուսոմը դեռ պետք է որոշումներ կայացնի Կալիֆորնիա օրենսդիր մարմնի այս նստաշրջանում հաստատած մի քանի այլ ԱԻ-կապված օրենքների վերաբերյալ, ներառյալ մեկ, որը պահանջում է ԱԻ մշակողների համար անվտանգության փորձարկումներ: Ցուցադրական ոլորտի հետ կապված օրենքները ունեին անկատար առարկություններ: Չնայած որ Մոտիկ Հարցազրույցի Ասոցիացիան, որը ներկայացնում է գլխավոր ստուդիաները, սկզբում հակառակվում էր նրանց, այն դարձավ գործունար՝ փոփոխություններ կատարելուց հետո՝ հետարտադրական պրակտիկաների և ազատ բառագիտության իրավունքները ապահովելու համար: SAG-AFTRA-ն չի պահանջում արգելափակել արտադրողներին՝ օգտագործելու ԱԻ-ն ներկայացումները վերակրկնելու համար: Փոխարենը, միությունը նպատակ ունի ապահովելու, որ դերասաններն ու կատարողները չունենան իրենց նկարագրի օգտագործման թույլտվություն առանց իրենց համաձայնության: Մի միջոցղներից մեկը, AB 2602, պարտական է կատարողական փորձերների պայմանագրերում հստակ նշել նախատեսվող օգտագործումը: Ներկայիս կատարողական պայմանագրերը հաճախ պարունակում են լայն բնութագրերի իրավունքի պայմաններ՝ ինչպիսիք են «մի ամբողջ տիեզերքում» և «բոլոր ձայների մեջ, ինչպիսիք հայտնի են կամ ստեղծված ի ապագայի»: Այս օրենքը հստակացնում է, որ այսպիսի պայմանագրերը չեն թույլատրում ԱԻ-ն վերակրկնել բացառությամբ՝ հստակ նշված առանց մանրամասների: Երկրորդ օրենքը, AB 1836, նույն իրավունքները երկարացնում է մահացած կատարողների վրա, նրանց ժառանգորդներին հնարավորություն տալով անդամապահովման իրավական կարգավորումներում: Այս իրավունքները պահվում են 70 տարի մահից հետո: Նյուսոմը ստորագրեց օրենքները դերասանների միության նախագահ Ֆրան Դրեշերի, քարտուղար-գանձապահ Ջոելի Ֆիշերի և տնօրեն Դանկան Քրաբտրի-Իրլսանդի հետ: SAG-AFTRA-ն նույնպես աջակում է նմանօրինակ օրենսդրությանը ֆեդերալ մակարդակում, հայտնի որպես No Fakes Act, որը արգելում է անհամաձայնված ներկայացումները՝ ներառելով կատարողներին: «Նրանք ասում են, թե ինչպես գնում է Կալիֆորնիան, այնպես էլ գնում է ազգը», - նշել էԴրեշերը հայտարարությունում:
- 1