AI ડિબેટ પદ્ધતિ જટિલ કાર્યમાં નિર્ણયની ચોકસાઈ વધારવામાં સહાયક છે.
Brief news summary
ફેબ્રુઆરી 2023 માં, Google ના AI ચેટબોટ બાર્ડ દ્વારા જેમ્સ વેબ સ્પેસ ટેલિસ્કોપ વિશે ભૂલ કરવાની સાથે AI ની ચોકસાઇ અંગે ચિંતા ઊભી થઈ. Purdue યુનિવર્સિટી અભ્યાસે પણ દર્શાવ્યું કે ChatGPTના અડધી કરતાં વધારે પ્રોગ્રામિંગ જવાબ ખોટા હતા. જ્યારે આવી ભૂલો હાલ પકડી શકાય એવી છે, ત્યારે NYU ના જુલિયન માઈકલ જેવા નિષ્ણાતો ભવિષ્યના AI મોડેલો જટિલ અને તપાસવાથી બહાર રહેતી પ્રતિસાદો રજૂ કરી શકે છે જે વિશ્વાસને નબળું કરી શકે છે તેની ચિંતા ધરાવે છે. હલ અનુસાર AI મોડેલોએ એકબીજાનો તર્ક કરી માનવી કે AI ન્યાયાધીશને સત્ય નિર્ધારિત કરવામાં મદદ કરવા જરૂરી છે. એન્થ્રોપિક અને ગૂગલ DeepMind ના શોધો સૂચવે છે કે ચર્ચા દ્વારા મોડેલોને તાલીમ આપવાથી ચોકસાઇમાં સુધારો આવી શકે છે. જોકે, પક્ષપાત, વિવિધ કાર્યોમાં વિશ્વસનીયતા, અને માનવ મૂલ્યો સાથે સુસંગતતા જેવી પડકારો હજી પણ છે. આ સમસ્યાઓ હોવા છતાં, AI ચર્ચા અને દેખરેખના અભ્યાસો AI ના વિશ્વસનીયતામાં સુધારો લાવવા માટે આશાનો કિરણ આપે છે. સંશોધકો આશાવાન છે કે AI ચર્ચાઓ ભવિષ્યમાં AIની સલામતી અને સંકેલન માટે મહત્ત્વપૂર્ણ યોગદાન આપી શકે.ફેબ્રુઆરી 2023 માં, ગૂગલના AI ચેટબોટ બાર્ડે ખોટું જણાવ્યું હતુ કે મોટાનો અંતરિક્ષ ટેલિસ્કોપ જેમ્સ વેબે પ્રથમ એક્સોપ્લાનેટનો ચિત્ર લીધું હતું, જેના પરિણામમાં ઓપનએઆઈના ચેટજીપીટીમાં શોધવામાં આવેલી ભૂલો જેવી ભૂલો જોવા મળી હતી, જેમાં પર્ડ્યૂ યુનિવર્સિટીના સંશોધકોએ અંદાજે 500થી વધુ પ્રોગ્રામિંગ પ્રશ્નોને ખોટી રીતે જવાબ આપ્યો હતો. જ્યારે આ ભૂલો હાલમાં સ્પષ્ટ છે, નિષ્ણાતો ચિંતા વ્યક્ત કરે છે કે AI મોડેલ્સ વિગતવાર બનતા જાય છે ત્યારે સત્યને ભ્રમથી અલગ કરવું વધુ મુશ્કેલ બનશે. NYUના જુલિયન માઇકલ સૂચવે છે કે AI સિસ્ટમ્સને માનવ ક્ષમતાથી વધારે વિસ્તારોમાં દેખરેખ રાખવી મુશ્કેલ છે. એક પ્રસ્તાવિત ઉકેલ એ છે કે બે મોટા AI મોડેલ તર્કવિતર્ક કરે, અને સામાન્ય મોડેલ અથવા માનવ વધુ સારું પરિણામ નકકી કરે. આ વિચાર છ વર્ષ પહેલા આવી હતી; જોકે, અંત્રોપિક અને ગૂગલ ડીપમાઇન્ડના તાજેતરના અભ્યાસો દર્શાવે છે કે LLM તર્કવિતર્ક સત્યને ઓળખવામાં મદદરૂપ થાય છે. વિશ્વસનીય AI સિસ્ટમ્સ સ્થાપિત કરવું એ એલાઇનમેન્ટનો એક પાસું છે, જે નિશ્ચિત કરે છે કે AI માનવ મૂલ્યો સાથે શેર કરે છે. વર્તમાન એલાઇનમેન્ટ માનવ પ્રતિસાદ પર આધારિત છે, પરંતુ સ્કેલેબલ દેખરેખ – AIના માનવ ક્ષમતાથી વધારે કડકતાને કુશળતા સાથે નિશ્ચિત કરવી – AI આગળ વધતા જતા જરૂરી છે. તર્કવિતર્ક, 2018 થી સંશોધિત, આ સ્કેલેબલ દેખરેખ સંભાળવાની રીતે જોયું છે. શરૂઆતથી જ કરેલી ઓફનએઆઈના જેફ્રી ઈર્વિંગે, તે તકનીકમાં બે AI મોડેલો કોઈ પ્રશ્ન પર તર્કવિતર્ક કરે છે જેથી કરીને બાહ્ય ન્યાયાધીશને તેમની ચોકસાઈમાં વિશ્વાસ કરાવવામાં આવે. જોકે 2018 માં કરાયેલા મુલાંખન સુચવે છે કે તર્કવિતર્ક કાર્યક્ષમ રહી શકે છે, માનવની આધારો પર અભિનિર્ભરતાને સમજવા માટેની જાગૃતિ અને મૂલ્યાંકન ક્ષમતામાં તફાવત ઓલોજી પાછાં રહે છે. એલાઇનમેન્ટ, માનવીય મૂલ્યો સાથે AIને યોગ્ય રીતે ખરેખર વિમર્શ કરવા માગે છે.
શરૂઆતમાં વિવાદાસ્પદ પરિણામો હોવા છતાં, નવા અભ્યાસો સંકેત આપે છે કે શક્યતા છે. अंत्रोपिकના અભ્યાસે દર્શાવ્યું કે LLM ઉદબોધનથી નિંશકતાઓનું ચોખ્ખું સુધારણું થયું, તે 54% માંથી 76% સુધી પહોંચ્યું. ગૂગલ ડીપમાઇન્ડના સમાન પ્રયોગોએ દર્શાવ્યું કે તર્કવિતર્ક દરેક કાર્યમાં ચોકસાઈમાં વધારાને ઓફર કરે છે. ઝૈક્રી કેન્ટોન કહે છે કે બે પક્ષો જોવા મળતા જજ માટે વધુ માહિતી ઓફર કરે છે, વધુ ચોક્કસ નિષ્કર્ષની ઉત્થતિ કરે છે. ત્યાં છતાં, પડકારો યથાવત છે, જેમ કે ક્ષુદ્ર તર્કવિતર્ક લક્ષણો અને મૂઢતાનો પ્રભાવ, જ્યાં AI છતી રીતે વસ્તુધન માપ્યા વગર વધુ મનોમોહક રાખે છે. થોડું કઠોર ભારતીઓ અથવા સાચા-ખોટા જવાબ સાથે પરીક્ષાઓનું અસ્થિર સ્વરૂપ, સજ્જ, જટિલ સાચી વિશ્વ ઘટનાઓમાં અસરકાર વ્યાખ્યા ન આપી શકે. AI વર્તન વ્યવહારિક રીતે સમજીને, અને જ્યાં AI સિસ્ટમો માનવ જજને જ્ઞાનમાં સિદ્ધ કરે છે તે શોધવી અગત્યન છે, આ પ્રક્રિયાઓના વિકાસ અને અન્વર્ધનમાં, ઈર્વિંગ દ્રષ્ટિ દ્વારા નોંધાયા પ્રમાણે. આ અવરોધો છતાં, તર્કવિતર્કની વિમર્શી સફળતા AI નિશ્ચિતતાને સુધારવા માટે એક પ્રતિજ્ઞાયુક્ત પ્રગતિનું પ્રતિનિધિત્વ કરે છે.
Watch video about
AI ડિબેટ પદ્ધતિ જટિલ કાર્યમાં નિર્ણયની ચોકસાઈ વધારવામાં સહાયક છે.
Try our premium solution and start getting clients — at no cost to you