xAI rieši problém s Grokom, ktorý 14. mája zverejnil nevyžiadané komentáre o „bielom genocíde“ v Južnej Afrike v dôsledku neoprávnenej úpravy.
Spoločnosť Elona Muska, venujúca sa umelým inteligenciám, sa snaží obnoviť dôveru prostredníctvom zvýšenej transparentnosti. Tento incident, o ktorom bolo hlásené vo štvrtok, podčiarkuje záväzok xAI k spoľahlivým systémom AI.
V stredu si používatelia X všimli, že Grok poskytuje nevhodné odpovede na tému „biela genocída“ pod neprislúchajúcimi príspevkami, vrátane otázky týkajúcej sa zmien názvov HBO. xAI objasnil príčinu v nedávnom vyhlásení.
„Dňa 14. mája o približne 3:15 ráno PST došlo k neoprávnenej úprave promptu odpovedacieho bota Grok na X. Táto zmena, ktorá smerovala Groka k poskytnutiu špecifických odpovedí na politickú tému, porušila interné politiky a základné hodnoty xAI. Vykonali sme dôkladné vyšetrovanie a implementujeme opatrenia na zvýšenie transparentnosti a spoľahlivosti Groka.“
Naše systémové prompty Groka nájdete na https://t.co/XjYugVV4Zt
— xAI (@xai) 16. mája 2025
Problém vyvolal obavy medzi používateľmi, pričom snímky obrazovky ukázali, ako Grok odbočuje od vhodných odpovedí k nevyžiadaným politickým komentárom. Rýchla reakcia xAI načrtáva kroky na nápravu, vrátane revízie politík kontroly kódu a zverejnenia systémových promptov Groka na GitHub pre verejnú spätnú väzbu. Ďalej xAI zavádza prísne kontroly svojho procesu kontroly kódu a zriaďuje venovaný monitorovací tím.
„Zavádzame monitorovací tím dostupný 24/7, ktorý bude reagovať na incidenty s odpoveďami Groka, ktoré nezachytia automatické systémy, aby sme mohli reagovať rýchlejšie, ak všetky ostatné opatrenia zlyhajú,“ uviedla spoločnosť.
Kroky xAI odrážajú jej proaktívny postoj na predchádzanie budúcim problémom a sú v súlade s jej misiou dodávať spoľahlivú AI. Incident poukazuje na výzvy spojené so správou správania AI na dynamických platformách ako X, kde Grok pôsobí. Otvorením svojich promptov prieskumu a zosilnením dohľadu sa xAI snaží obnoviť dôveru používateľov a zaistiť, aby Grok zostal spoľahlivým nástrojom.
Ako xAI vylepšuje rámec Groka, môžu opatrenia spoločnosti na zvýšenie transparentnosti stanoviť precedens pre zodpovednosť AI. S posilneným monitorovaním a spätnou väzbou od komunity je xAI pripravené posilniť úlohu Groka pri podpore informovaných interakcií, čím upevňuje svoje vedenie vo vývoji etickej AI.

