…denn sie kann sogar schon rassismus:
Die Abhandlung untersucht drei mögliche Begründungen für das dominant weiße Bild. Zum einen spiegele die Rassenzuordnung häufig die weißen Milieus wider, in denen sie entstehen. Als zweiten Grund führen die Autoren auf, dass Maschinen, die intelligent, professionell und mächtig sind, aus Sicht vieler weißer Menschen mit diesen Attributen ihrer eigenen Rasse zuzurechnen sind […] Insgesamt fördere die Darstellung Vorurteile und den Bias in Machine-Learning-Systemen. Dadurch können wieder Entscheidungen fallen, die ethnische Gruppen benachteiligen
Natürlich enthält der artikel auf der webseit eines ehemaligen fachverlages mehrere randvoll gefüllte kübel bullschitt. Klar kann man die farbe von maschinen ebenfalls als kriterjum nehmen, aber dann sollte man sich vorher über die eigenen maßstäbe bewusst sein. Wie hätten diese forschen forscher es wohl beurteilt, wenn es einen humanoid aussehenden, mit deutlichen afrika-merkmalen daherkommenden baumwoll-pflückroboter in schokoladenfarbigem gehäuse gäbe? 
Es ist also eine dieser pseudowissenschaftlichen untersuchungen, bei deren durchführung das ergebnis schon vorher bekannt war.
Morgen kommt bestimmt prof. dr. Offensichtlich dahergelaufen und teilt mit, dass er rausgekriegt hat, dass das weltbild und die wahrnehmung derer, die simulierte neuronale netzwerke trainieren, von eben diesen netzwerken erlernt wird — ohne dass dies, etwa im gegensatz zu richtiger programmierung, irgendwie in einem kohd bemerkt werden und analysiert werden könnte.
Ich werde übrigens nie verstehen, warum menschen so etwas wie menschen mit hohem aufwand nachbauen wollen, wenn man sie doch so einfach, preiswert und lustvoll in beliebigen mengen machen kann und jeder von denen — ja, selbst noch mitmensch dummes arschloch — so viel erfreulicher und schlauer als jede maschine ist. Das muss wohl dieser ich-bin-gott-komplex des dr. Frankenstein sein…