FOTO: Obrázek ženy vygenerovaný umělou inteligencí úspěšně prodával nahé fotky uživatelům internetu
Umělá inteligence napálila uživatele Redditu.
Žijeme v nové době a stále si nejsme úplně jistí, že se nám to líbí. Rozhodně ale nezažíváme podobné pocity, jaké teď asi mají uživatelé Redditu, kteří nedávno zaplatili nemalé peníze za nahé fotky ženy, o které si mysleli, že je skutečná, jenom aby později přišli na to, že se jednalo o obrázek vygenerovaný umělou inteligencí.
Podvodníci využili Claudii, jak se tajemná modelka na Redditu jmenovala, aby z lidí vytáhli po pár lechtivých konverzacích peníze za nahé fotky, následně se ale v komunitě rozneslo, že Claudia nemusí být tak skutečná, jak si asi mnozí mysleli, a moderátoři následně začali její příspěvky mazat. Peníze už samozřejmě nikdo nikomu nevrátí, na tomhle příkladu je ale krásně vidět, jak skutečně začínají generované obrázky od AI působit, a k jakým typům potíží to může vést.
Ne snad, že by tzv. „catfish“ na internetu nebyl problém už v minulosti, dříve si ale podvodníci museli alespoň dát tu práci s tím, aby ukradli cizí fotky. Dneska jim stačí poprosit aplikaci, která jim vyrobí zcela nové obrázky dle zadání, a pakliže obyčejný uživatel nebude na takovou možnost připravený, může se nechat snadno oklamat a přijít v budoucnu i o víc než jen pár tisíc.