Ana e errët e “Bing Chatbot” të Microsoft, u dërgon përdoruesve mesazhe ofenduese
Edhe pse Microsoft ka thënë se është duke mësuar që në javën e parë të motorit të kërkimit Bing të fuqizuar nga Inteligjenca Arificiale, përdorues të shumtë kana treguar se ky “chatbot”, ka nisur të dërgojë mesazhe shqetësuse dhe të çuditshme.
Vetëm javën e kaluar, Microsoft ka shtuar këtë teknologji të re artificiale në motorin e tij të kërkimit, duke përdorur të njejtën teknologji që fuqizon ChatGPT, ndërsa ka njoftuar se ka për synim t’u japë njerëzve më shumë informacion, përgjigje të sakta e të plota gjatë kërkimit të tyre.
Megjithatë, disa përdorues kanë treguar për një anë të errët të ‘chatbot’, duke thënë se po marrin mesazhe alarmante, fyerje dhe gënjeshtra.
Duke dashur të shpjegojë këto “sjellje”, Microsoft ka thënë se është krijuar në këtë formë, në mënyrë që të marrë më shumë reagime nga përdoruesit dhe të mund t’u përgjigjet reagimeve.
Kompania ka thënë po ashtu se këto reagime tashmë janë duke ndihmuar për të parë se çka do të ndodhë me këtë aplikacon në të ardhmen.
“E vetmja mënyrë për të përmirësuar një produkt si ky, ku përvoja e përdoruesit është shumë e ndryshme nga çdo gjë që dikush ka parë më parë, është që njerëz si ju të përdorin produktin dhe të bëjnë pikërisht atë që po bëni të gjithë ju”, - thuhej në një postim në blog të kompanisë, ku më tej shtohej se:
“Ne e dimë se duhet ta ndërtojmë këtë bashkë me komunitetin; kjo nuk mund të bëhet vetëm në laborator.”
Pjesa më e madhe e reagimit të publikut ka pasur të bëjë me gabime faktike, p,sh është raportuar se Bing ka këmbëngulur për disa përdorues që viti ishte ende 2022. Ndërsa, të tjerë përdorues kanë gjetur problem teknike, të tilla si situata ku chatbot mund të shfaqte lidhje të dobët ose të mos hapej siç duhet.
Ndërkohë, vetë Microsoft ka paraqitur problem më të thella, në lidhje me tonin e çuditshëm që kanë marrë disa nga përdoruesit e aplikacionit.
Sipas The Independent, Microsoft ka thënë se Bing mund të ketë probleme kur bisedat janë veçanërisht të thella.
“Nëse i bëhen më shumë se 15 pyetje, Bing mund të bëhet përsëritës ose të nxitet/provokohet për të dhënë përgjigje që nuk janë domosdoshmërisht të dobishme ose në përputhje me tonin tonë të dizajnuar",- kanë thënë nga kompania, ndërsa është shtuar se kjo mund të ndodhë sepse bisedat e gjata mund ta hutojnë Bing, në lidhje me pytjet që është duke i’u përgjigjur, e ndonjëherë pasi është në përpjekje për të kopjuar tonin e njerëzve që po i bëjnë pyetje.
"Modeli ndonjëherë përpiqet të përgjigjet ose të reflektojë në tonin në të cilin kërkohet të japë përgjigje që mund të çojnë në një stil që ne nuk e kishim menduar," - ka thënë Microsoft.
Kompania nuk ka adresuar ndonjë rast specifik problem e as nuk ka dhënë ndonjë shembull të atij toni problemtik për të cilin po fliste, vetëm ka zbuluar se herë pas here sistemi do të bëhet luftarak ose do të “mërzitet” me njerëzit ashtu edhe me veten e vet.