Skynet kommt…

Forscher haben die künstliche intelligenz eines fratzenbuchs abgeschaltet, die eine eigene sprache erfunden hat, um effizjenter kommunizieren zu können.

The resulting phrases appear to be nonsensical gibberish to humans but contain semantic meaning when interpreted by AI „agents.“

Als sie gemerkt haben, dass ihr system kein englisch mehr benutzt, haben sie den stecker gezogen.

Mal schauen, wann der menschheit mit blutigen robotergreifvorrichtungen der stecker rausgezogen wird, weil sie immer noch menschliche sprachen benutzt. :mrgreen:

Ein fratzenbuch, in dem sich nur noch irgendwelche bots unterhalten, ist aber wenigstens eine erfreuliche vorstellung…

„Ashley madison“ des tages

Die teuerste Mitgliedschaft auf der Webseite gewährt eine Art „Garantie“ für eine Affäre. Diesen besonders teuren Kunden sollen die Betreiber ganz spezielle Chat-Bots widmen. Dieser Bot-Typ soll die Premium-User dazu bringen, weiteres Guthaben zu kaufen. Anschließend würden sie an einen „Affiliate“ (Partner) übergeben

Ich wünsche euch allen auch weiterhin viel spaß auf euren fickpartnersuchseiten! Geld bezahlen, um mit bots zu tschätten, die irgendwann zu professjonellen lügnern (gern mit frauenname, aber fürs geschäft ists geschlecht egal) übergeben werden, wenn man euch genug zaster rausleiern kann. Ganz so, wie ich es von russischen däjting-betrügern aus meiner spämm gewohnt bin. Kein mensch, der auch nur für ein paar ørecent verstand hat, sollte auf diesen beschiss mehr reinfallen!

Und: wer glaubt, bei den anderen aufdringlich und hirnverachtend in presse und glotze beworbenen fickpartnersuchseiten von „elitepartner“ bis „parship“ liefe es anders, glaube weiter den lügen der reklameheinis und verdumme hirnverwest vor sich hin! Im puff hätts wenigstens was fürs geld gegeben, aber der geschlechtstrieb gibt sich ja auch mit surrogaten zufrieden, und ansonsten…

Doch zunächst halt das Unternehmen in seiner Mitteilung fest, dass es sich regen Userzustroms erfreue. Alleine in der vergangenen Woche wären „Hunderttausende“ neue Nutzer hinzugekommen, darunter 87.596 Frauen

…fresst einfach scheiße, leute! Die schmeckt milljonen von schmeißfliegen doch auch, also seid dabei! :mrgreen:

Bot des tages

Der bot, der als user-agent die nichts sagende zeichenfolge 007ac9 Crawler angibt und in diesem monat immerhin stolze 15.400 anfragen auf das spämmblog (mit seinen zurzeit insgesamt 3.200 einträgen) losgelassen hat, wird von der SEO-klitsche sistrix betrieben. Als ob SEO — also auf suchmaschinen gerichtete spämm-techniken — noch nicht widerwärtig genug wäre, hat sistrix sich einen ganz tollen text ausgedacht, falls mal jemand danach sucht:

Wir von SISTRIX haben es uns zur Aufgabe gemacht, Inhalte und Netzwerke im Internet zu untersuchen, um Informationsmonopole, wie sie derzeit durch Suchmaschinengiganten entstanden sind, aufzubrechen. Die dafür notwendigen Informationen sammelt zum Teil der 007AC9 Crawler.

So so, fast schon für einen guten zweck und vor allem gegen die gefährlichen großen monopole… *schwallkotz!*

Ich als empfindsames wesen, das manchmal erbrechen muss, wenn es mit widerwärtiger heuchelei und nichtssagenden reklame-frasen konfrontiert wird, werde bei nächster gelegenheit (ich sitze gerade an einer kiste, an der ich nicht wirklich gut arbeiten kann) den gesamten IP-bereich von sistrix sperren. Noch lieber würde ich diese SEO-nuckler und suchmaschinen-manipulatöre aus der welt entfernen; diese netzvampire, die einfach nur massenhaft daten für ihre „dienstleistung“ einsammeln, um mit hilfe dieser daten besser dafür sorgen zu können, dass menschen nicht mehr finden, was sie suchen, und stattdessen das, was nach meinung von werbelügenden suchmaschinen-verschmutzern im brote der geldmacht gefunden werden soll. Dass widerliche und letztlich kundenverachtende klitschen wie „ebay“, „tui“ und die „lufthansa“ ihre eigene reputazjon dadurch in die scheiße ziehen lassen, dass sie mit so einem halbseidenen, vampiristischen und in seiner selbstdarstellung intelligenzverachtend verlogenem pack gemeinsame sache machen, ist deren problem, das hoffentlich auch einmal — am besten schon heute — am umsatz spürbar wird.

Geh sterben, du vampir von scheiß-SEO, und stirb grausam! 👿

S/M des tages: guhgells S/M-bot

Keine satire, keine verschwörungs-seit, sondern eine meldung der BBC:

Google patentiert einen bot, der gegen „social-media-burnout“ hilft

Wenn es ihnen zur last wird, die gegenwart in S/M¹ aufrecht zu erhalten, könnte guhgell eine hilfe sein. Der such-gigant hat pläne für eine softwäjhr patentiert, die langsam lernt, wie sie in sozjalen netzwerken reagieren. Die sofwäjhr kann ihre üblichen reaktionen auf status-aktualisierungen und nachrichten von freunden und beziehungen imitieren, um ihnen dabei zu helfen, besser mit der täglichen datenflut klarzukommen

Kann man sich mal wieder gar nicht selbst ausdenken… :mrgreen:

Ich blicke mit ganz breitem grinsen in eine zeit, in der in fratzenbuch, twitter und guhgell plus nur noch irgendwelche bots miteinander kommunizieren, während irgendwelche PR-idjoten immerfort davon reden, wie irre wichtig dort aktivität und präsenz sind. Um den irrsinn aufrecht zu erhalten, müsste man den bots für die ganzen unternehmen ohne seriöses geschäftsmodell eigentlich nur noch beibiegen, reklameklicks zu imitieren und für den menschen, den sie mit sinnentleertem bot-gestammel vertreten, automatisch geld auszugeben.

¹S/M ist meine abk. für „social media“. Aus gründen.

Bot des tages: Spiderlytics/1.0

Bot des tages ist Spiderlytics/1.0, der auch schon andernorts sein unwesen getrieben hat und ausgesprochen fragwürdig ist. Bei mir treibt er sich unter den folgenden, ziemlich bunt gestreuten IP-adressen auf den webseits herum: 176.9.138.27 (hetzner), 217.172.189.42 (intergenia) und 62.75.203.86 (plusserver). Sehr dubioses teil, das schon von seinem auftreten her nach kriminalität und späm-harvesting müffelt, und bei dem ich nicht daran glaube, dass der bot sich irgendwie an eine robots.txt halten wird — obwohl er sie regelmäßig abholt.

Da davon auszugehen ist, dass die IP-adressen häufig wechseln werden, ist es vermutlich besser, den user-agent in der websörver-konfigurazjon zu blockieren, wenn der erwartungsgemäß auf die robots.txt scheißt.

Die zwitscherbots

Ich habe in den letzten drei tagen ein kleines experiment gemacht, um mir einen eindruck davon zu verschaffen, wie viele besucher sich von diesem twitterdings zu einem klick hinreißen lassen. Bei mir liegt ein lokales archiv der tagesschau-meldungen der letzten 11 jahre auf einem lokalen websörver vor, und ich habe immer wieder einmal unter dem häschtägg #Vor10Jahren darauf verlinkt.

Das ergebnis, wie es sich in der logdatei zeigte, war bemerkenswert. So ein twieht mit einem link bringt kaum richtige, menschliche leser, aber ein ganzer schmeißfliegenschwarm von irgendwelchen bots schaut sich an, was da verlinkt ist. Nun, das wäre weiter kein problem, denn ich habe für diesen websörver eine robots.txt hinterlegt, damit dort nichts indiziert wird. Schließlich wäre das auch sinnlos, der rechner läuft eher selten (nämlich nur, wenn ich hier bin).

Aber wenn man einmal von den bekannten vertretern absieht, also dem msnbot, yahoos „slurp“ und dem guhgellbot, denn haben alle diese kleinen webabgraser, die sich über twitter ihre ziele zeigen lassen und deren selbstbezeichung ich noch nie gehört habe, eines gemeinsam: Sie schauen sich so eine robots.txt gar nicht erst an. Diese altmodische konwenzjon ist wohl für das so genannte „web zwo null“ nicht mehr gültig. In dieser wüste der stümperei und der so genannten „sozialen softwäjhr“ wird jetzt alles so richtig durchindiziert, egal, wie sinnvoll oder sinnlos das ist.

Alle ächtung!