Heiko Webers blogján akadtam rá Damien Katz posztjára a negatív CAPTCHA-król. Ugyebár senki sem szeret viagrareklámmal teletömött blogokat, fórumokat olvasgatni, hát még üzemeltetni, de elmondhatjuk, hogy a végtelenül összekuszált, esetleg izgő-mozgó-vibráló képek megfejtése sem tartozik kedvenc elfoglaltságaink közé. És akkor még nem is beszéltem pl. a gyengénlátókról, vagy más fogyatékkal élőkről (itt ha nem fogalmaztam korrekten javítsatok ki légyszi!), akiknek minden bizonnyal komoly problémát jelenthet akár egy rendesen kivitelezett Turing teszt megoldása is.
A negatív CAPTCHA lényege az, hogy nem arra kényszeríti rá pl egy blog látogatóit, hogy bebizonyítsák azt hogy hús-vér emberek, hanem a robotokat veszi rá, hogy bebizonyítsák: nem azok! Tulajdonképpen egyfajta "mézesbödönről", honeypotról van szó: a védendő odlal tulajdonosa felvesz egy szövegmezőt minden űrlapjához, amit pl. CSS vagy JavaScript segítségével eltűntet a látogatók szeme elől. Csakhogy a crawlerek nem az oldal összképét, hanem annak forráskódját látják, ráadásul általában elég butuskák is szegények: mohón kitöltenek minden lehetséges mezőt a szemetükkel. Az embernek tehát nincs más dolga, mint kiszűrni azokat a kéréseket, amelyekben a felvett plusz mező ki van töltve, hiszen a valódi emberek általában nem foglalkoznak a nem látható mezők kitöltésével (tisztelet a kivételnek ;)).
Természetesen a módszer egyszerűen legyőzhető mondjuk úgy, hogy megtanítjuk a robotoknak, hogy milyen mezőket ne töltsenek ki, de ez csak oldal-specifikus spambotok esetén működik hatékonyan, általános célú programoknál igen bonyolult algoritmusokat kell alkalmazni a csapdák felismerésére. A negatív CAPTCHA-k tehát nem jelentenek univerzális megoldást a spamproblémára, de kellő megfontolás után az alkalmazása jelentősen megnövelheti egy oldal látogatóinak komforterzetét.
A negatív CAPTCHA lényege az, hogy nem arra kényszeríti rá pl egy blog látogatóit, hogy bebizonyítsák azt hogy hús-vér emberek, hanem a robotokat veszi rá, hogy bebizonyítsák: nem azok! Tulajdonképpen egyfajta "mézesbödönről", honeypotról van szó: a védendő odlal tulajdonosa felvesz egy szövegmezőt minden űrlapjához, amit pl. CSS vagy JavaScript segítségével eltűntet a látogatók szeme elől. Csakhogy a crawlerek nem az oldal összképét, hanem annak forráskódját látják, ráadásul általában elég butuskák is szegények: mohón kitöltenek minden lehetséges mezőt a szemetükkel. Az embernek tehát nincs más dolga, mint kiszűrni azokat a kéréseket, amelyekben a felvett plusz mező ki van töltve, hiszen a valódi emberek általában nem foglalkoznak a nem látható mezők kitöltésével (tisztelet a kivételnek ;)).
Természetesen a módszer egyszerűen legyőzhető mondjuk úgy, hogy megtanítjuk a robotoknak, hogy milyen mezőket ne töltsenek ki, de ez csak oldal-specifikus spambotok esetén működik hatékonyan, általános célú programoknál igen bonyolult algoritmusokat kell alkalmazni a csapdák felismerésére. A negatív CAPTCHA-k tehát nem jelentenek univerzális megoldást a spamproblémára, de kellő megfontolás után az alkalmazása jelentősen megnövelheti egy oldal látogatóinak komforterzetét.
Utolsó kommentek