ગૂગલ એન્જિનિયરનો ચોંકાવનારો દાવો, ચેટબોટે તેની સાથે માણસ જેવો વ્યવહાર કર્યો, જાણો શું છે આ બલા
ટેક્નોલોજીના સમયમાં, તમારે ઘણીવાર આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI)નો સામનો કરવો પડશે. ઉદાહરણ તરીકે, કોઈપણ કંપની સાથે ફરિયાદ-સૂચન અથવા અન્ય કોઈ સમસ્યા માટે, તમે તેના WhatsApp સાથે કનેક્ટ થાઓ અને પ્રશ્નો અને જવાબો પૂછો. બીજી બાજુ, AI તમારી સાથે વાત કરે છે. પરંતુ તે એક સોફ્ટવેર છે, માણસ નથી. શું ચેટબોટ પણ માણસની જેમ વિચારી શકે છે? અત્યારે નથી, પરંતુ ગૂગલની આર્ટિફિશિયલ ઈન્ટેલિજન્સ ડેવલપમેન્ટ ટીમના સોફ્ટવેર એન્જિનિયર બ્લેક લેમોઈને દાવો કર્યો છે કે આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) સંવેદનશીલ બની ગઈ છે. તેણે ગૂગલના સર્વર પર જે AI સાથે વાતચીત કરી હતી તે વાસ્તવમાં મનુષ્યની જેમ વિચારી રહી હતી, જે દરેકને આશ્ચર્યચકિત કરી રહી હતી. જોકે ગૂગલે આ એન્જિનિયરને સસ્પેન્ડ કરી દીધા છે. લેમોઈન પર કંપનીના પ્રોજેક્ટ્સ વિશેની ગુપ્ત માહિતી ત્રીજા પક્ષકારો સાથે શેર કરવાનો આરોપ છે.
એટલા માટે AI વિવાદમાં આવ્યું :
તેના સસ્પેન્શન પછી, બ્લેકે ગૂગલના સર્વર્સ વિશે એવો વિચિત્ર અને ચોંકાવનારો દાવો કર્યો હતો જેણે ટેક્નોલોજીની દુનિયામાં હલચલ મચાવી દીધી હતી. બ્લેકે કહ્યું કે તેને Google ના સર્વર પર એક સંવેદનશીલ AIનો સામનો કરવો પડ્યો. એટલે કે AI ચેટબોટ માનવની જેમ વિચારીને તેમની સાથે વાત કરી રહ્યું હતું. બ્લેક જે AI સોફ્ટવેરનો ઉલ્લેખ કરી રહ્યો છે તેને LaMDA (ડાઈલોજ એપ્લીકેશન માટે લેંગ્વેજ મોડલ) કહેવામાં આવે છે. તેનો ઉપયોગ વિવિધ કંપનીઓના ચેટ બોટ્સ બનાવવા માટે થાય છે, જે વિવિધ વ્યક્તિત્વને અપનાવે છે અને ટેક્સ્ટ અથવા ભાષણ દ્વારા માનવ વપરાશકર્તાઓ સાથે સંપર્ક કરે છે.
ગૂગલે આ જવાબ આપ્યો :
બ્લેકે યુએસ મીડિયા વોશિંગ્ટન પોસ્ટને આપેલા સનસનાટીભર્યા ઇન્ટરવ્યુમાં જણાવ્યું હતું કે તેણે પોતાનો દૃષ્ટિકોણ સાબિત કરવા માટે એક પ્રયોગ કરવાનો પ્રયાસ કર્યો હતો, પરંતુ જ્યારે તેણે કંપનીના ઉચ્ચ અધિકારીઓને આ ઓફર કરી ત્યારે તેનું અપમાન થયું હતું. બ્લેક Google સાથે સંબંધિત કંપની Alphabet Inc. માટે કામ કરે છે. તેને ગયા સપ્તાહની શરૂઆતમાં પેઇડ લીવ પર મોકલવામાં આવ્યો છે. આરોપ છે કે તેણે કંપનીની ગોપનીયતા નીતિનું ઉલ્લંઘન કર્યું છે. ગૂગલના પ્રવક્તા બ્રાયન ગેબ્રિયલએ આ વિવાદ પર પ્રતિક્રિયા આપતા કહ્યું કે આજના વાતચીતના મોડલ પૂરતા સંવેદનશીલ નથી, જોકે આ દિશામાં કામ ચાલી રહ્યું છે.