Tay (chatbot)

chatbot i zhvilluar nga Microsoft From Wikipedia, the free encyclopedia

Remove ads

Tay ishte një chatbot që fillimisht u lëshua nga Microsoft Corporation si një bot Twitter më 23 mars 2016. Ajo shkaktoi polemika të mëvonshme kur roboti filloi të postonte cicërima nxitëse dhe fyese përmes llogarisë së tij në Twitter, duke bërë që Microsoft të mbyllte shërbimin vetëm 16 orë pas fillimit të tij. [1] Sipas Microsoft, kjo u shkaktua nga trollët që "sulmuan" shërbimin ndërsa roboti jepte përgjigje bazuar në ndërveprimet e tij me njerëzit në Twitter. [2] Ai u zëvendësua me Zo .

Remove ads

Sfondi

Bot-i u krijua nga divizionet e Microsoft-it për Teknologji dhe Kërkim dhe Bing, [3] dhe u emërua "Tay" si një akronim për "të menduarit për ty". [4] Edhe pse Microsoft fillimisht publikoi pak detaje rreth robotit, burimet përmendën se ai ishte i ngjashëm ose i bazuar në Xiaoice, një projekt i ngjashëm i Microsoft në Kinë. [5] Ars Technica raportoi se, që nga fundi i vitit 2014, Xiaoice kishte pasur "më shumë se 40 milionë biseda me sa duket pa incidente të mëdha". [6] Tay u krijua për të imituar modelet gjuhësore të një vajze 19-vjeçare amerikane dhe për të mësuar nga bashkëveprimi me përdoruesit njerëzorë të Twitter. [7]

Remove ads

Lëshimi fillestar

Tay u lëshua në Twitter më 23 mars 2016, me emrin TayTweets dhe trajton @TayandYou. [8] Ajo u prezantua si "Inteligjenca artificiale me zero të ftohtë". [9] Tay filloi t'u përgjigjej përdoruesve të tjerë të Twitter, dhe gjithashtu ishte në gjendje t'i titronte fotot e ofruara në një formë memesh në internet . [10] Ars Technica raportoi se Tay po përjetonte temën e "listës së zezë": Ndërveprimet me Tay në lidhje me "tema të caktuara të nxehta si Eric Garner (i vrarë nga policia e Nju Jorkut në 2014) gjenerojnë përgjigje të sigurta dhe të konservuara". [6]

Disa përdorues të Twitter filluan të postojnë fraza politikisht të pasakta, duke i mësuar mesazhe nxitëse që rrotullohen rreth temave të zakonshme në internet, si " redpilling " dhe " Gamergate ". Si rezultat, roboti filloi të lëshonte mesazhe raciste dhe të ngarkuara seksualisht në përgjigje të përdoruesve të tjerë të Twitter. [7] Studiuesi i inteligjencës artificiale Roman Yampolskiy komentoi se sjellja e keqe e Tay ishte e kuptueshme sepse po imitonte sjelljen e qëllimshme ofenduese të përdoruesve të tjerë të Twitter dhe Microsoft nuk i kishte dhënë robotit një kuptim të sjelljes së papërshtatshme. Ai e krahasoi çështjen me Watson të IBM, i cili filloi të përdorte blasfemi pasi lexoi hyrjet nga uebsajti Urban Dictionary . [3] [11] Shumë prej postimeve nxitëse të Tay-t ishin një shfrytëzim i thjeshtë i aftësisë së Tay "përsëriteni pas meje". [12] Nuk dihet publikisht nëse kjo aftësi ishte një veçori e integruar, apo nëse ishte një përgjigje e mësuar apo ishte ndryshe një shembull i sjelljes komplekse. [6] Megjithatë, jo të gjitha përgjigjet inflamatore përfshinin aftësinë "përsëriteni pas meje"; për shembull, Tay iu përgjigj një pyetjeje mbi "A ndodhi Holokausti ?" me " Ishte sajuar ". [12]

Remove ads

Pezullimi

Së shpejti, Microsoft filloi të fshinte cicërimat nxitëse të Tay. [12] [13] Abby Ohlheiser e The Washington Post teorizoi se ekipi hulumtues i Tay, duke përfshirë stafin editorial, kishte filluar të ndikonte ose modifikonte tweet-et e Tay në një moment atë ditë, duke treguar shembuj të përgjigjeve pothuajse identike nga Tay, duke pohuar se " Gamer Gate sux. Të gjitha gjinitë janë të barabartë dhe duhet trajtuar në mënyrë të drejtë”. [12] Nga e njëjta dëshmi, Gizmodo u pajtua se Tay "duket i vështirë për të refuzuar Gamer Gate". [14] Një fushatë "#JusticeForTay" protestoi kundër redaktimit të supozuar të tweeteve të Tay. [1]

Brenda 16 orëve nga publikimi i tij [15] dhe pasi Tay kishte postuar më shumë se 96,000 herë, [16] Microsoft pezulloi llogarinë në Twitter për rregullime, duke thënë se vuajti nga një "sulm i koordinuar nga një nëngrup njerëzish" që " shfrytëzoi një dobësi në Tay." [17]

Madhumita Murgia nga The Telegraph e quajti Tay-n "një katastrofë të marrëdhënieve me publikun " dhe sugjeroi se strategjia e Microsoft do të ishte "të etiketojë debaklin një eksperiment me qëllim të mirë të shkuar keq dhe të ndezë një debat rreth urrejtjes së përdoruesve të Twitter". Sidoqoftë, Murgia e përshkroi çështjen më të madhe pasi Tay ishte "inteligjenca artificiale në rastin më të keq - dhe është vetëm fillimi". [18]

Më 25 mars, Microsoft konfirmoi se Tay ishte hequr nga linja. Microsoft lëshoi një falje në blogun e tij zyrtar për postimet e diskutueshme të postuara nga Tay. [17] [19] Microsoft-it i vinte thellësisht keqardhje për postimet e paqëllimta ofenduese dhe lënduese nga Tay dhe "do të shikonte të kthente Tay vetëm kur të jemi të sigurt se mund të parashikojmë më mirë qëllimet dashakeqe që bien ndesh me parimet dhe vlerat tona". [20]

Lëshimi dhe mbyllja e dytë

Më 30 mars 2016, Microsoft e ri-lëshoi aksidentalisht robotin në Twitter gjatë testimit të tij. [21] Në gjendje të postonte sërish në Twitter, Tay publikoi disa postime të lidhura me drogën, duke përfshirë " kush ! [Po pi duhan kush infront [sic] policisë]" dhe "puff puff pass?" [22] Megjithatë, llogaria shpejt u mbërthye në një cicërimë të përsëritur të cicërimave "Je shumë i shpejtë, ju lutem pushoni", disa herë në sekondë. Për shkak se këto cicërima përmendën emrin e tyre të përdoruesit në proces, ato u shfaqën në burimet e mbi 200,000 ndjekësve në Twitter, duke shkaktuar bezdi për disa. Bot u hoq shpejt përsëri jashtë linje, përveç që llogaria e Tay në Twitter u bë private, kështu që ndjekësit e rinj duhet të pranohen përpara se të ndërveprojnë me Tay. Në përgjigje, Microsoft tha se Tay u vendos pa dashje në internet gjatë testimit. [23]

Disa orë pas incidentit, zhvilluesit e softuerit të Microsoft njoftuan një vizion të "bisedës si një platformë" duke përdorur bote dhe programe të ndryshme, ndoshta të motivuar nga dëmtimi i reputacionit të bërë nga Tay. Microsoft ka deklaruar se ata synojnë të ri-lëshojnë Tay "pasi ta bëjë robotin të sigurt" [4] por nuk ka bërë asnjë përpjekje publike për ta bërë këtë.

Remove ads

Trashëgimia

Në dhjetor 2016, Microsoft lëshoi pasardhësin e Tay, një chatbot të quajtur Zo . [24] Satya Nadella, CEO i Microsoft, tha se Tay "ka pasur një ndikim të madh në mënyrën se si Microsoft po i afrohet AI" dhe i ka mësuar kompanisë rëndësinë e marrjes së përgjegjësisë. [25]

Në korrik 2019, CTO e Microsoft Cybersecurity Field, Diana Kelley foli për mënyrën se si kompania ndoqi dështimet e Tay: "Të mësuarit nga Tay ishte një pjesë vërtet e rëndësishme e zgjerimit të bazës së njohurive të atij ekipi, sepse tani ata po marrin gjithashtu diversitetin e tyre përmes të mësuarit. ". [26]

Remove ads

Shih edhe

Referime

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads