-- Krimineller Mossad mit der Firma "Faception": Kombination von Facebook-Likes und KI-Gesichtserkennung - "Psychologe" Michal Kosinski (8.7.2018)
-- Spionage-Gesichtserkennung "KI" kann Kriminelle und Intellektuelle nicht erkennen (27.7.2018)
-- Kriminelles Spionage-Programm SyRI mit "Big-Data-Analyse" stempelt Menschen zu Verbrechern - Rufmorde und falsche Alarme am Laufband (25.10.2018)
Krimineller Mossad will mit Computerprogrammen Verbrecher vorhersagen - mit nur 90% Genauigkeit
8.7.2018:
Spionage am Gesicht will Homos, Heteros und
Verbrecher vorhersagen - aber nur 80 bis 90%
Genauigkeit - krimineller Mossad mit Firma
Faception:
Fragwürdige Forschung: Neue Technologie
erkennt Sex-Vorlieben am Gesicht
https://www.krone.at/1736423
<Kritiker sehen in ihm eine Art digitalen Hexenmeister, der in einem Zeitalter ohne Privatsphäre ethisch unglaublich fragwürdige Experimente durchführt. Er selbst sieht sich als Forscher, der die Öffentlichkeit über die Möglichkeiten von Big Data und künstlicher Intelligenz aufklärt. Die Rede ist vom Psychologen Michal Kosinski (36). Er hat Technologien entwickelt, die auf Basis von Facebook-Likes Personenprofile erstellen und allein durch die KI-Auswertung von Fotos intimste Details bis hin zur sexuellen Orientierung aus einem Gesicht herauslesen. In den Händen einer Diktatur eine potenziell tödliche Waffe.
„Ich habe die Bombe nicht gebaut. Ich habe den Menschen nur gezeigt, dass sie existiert“, zitiert der britische „Guardian“ am Samstag den in Warschau geborenen Psychologen und Sohn eines Programmiererpaares, der heute an der Universität Cambridge lehrt. Kosinski hat sich in den letzten Jahren den Ruf eines Vordenkers erarbeitet, der mithilfe riesiger Datenberge und Künstlicher Intelligenz Zusammenhänge erkennen kann, von denen man nicht gedacht hätte, dass sie existieren. Kosinski schließt nicht nur von Facebook-„Likes“ auf Persönlichkeit oder Intellekt eines Menschen. Er errechnet sogar aus Bildern des Gesichts, welche sexuelle Orientierung er hat.Kosinski-Vortrag für russische Regierungsmitglieder
Kosinskis Forschung hat eine gewisse Sprengkraft und hat dem jungen Psychologiedoktor aus Polen harsche Kritik von Kollegen - manche einer fühlt sich von seinen Methoden an Rassenlehre erinnert - und Bewunderung von Marketingspezialisten und Politikern eingebracht. Vor einem Jahr hat ihn ein Hubschrauber in einen Moskauer Vorort geflogen, wo er russischen Politikern wie Premier Dimitri Medwedew und Außenminister Sergej Lawrow erklärt hat, was man allein auf der Basis der im Internet hinterlassenen Spuren und des Gesichts eines Menschen alles über diesen in Erfahrung bringen und wie man diese Informationen verwenden kann. Kosinskis Arbeit hat auch die manipulativen Kampagnen der Datenanalysefirma Cambridge Analytica inspiriert. Aber wie funktionieren seine Techniken genau?
Neuronale Netzwerke erkennen Muster im Datenhaufen
In dem Bericht erklärt der Forscher seine Methoden. Er nutze riesige Datenberge - etwa solche, die er mithilfe von Facebook-Umfragen gewonnen hat - und nutzt sogenannte neuronale Netzwerke zur schnellen parallelen Verarbeitung dieser Datenmengen, um Muster darin zu erkennen. Mit neuen Algorithmen zur Gesichtserkennung kann er laut eigenen Angaben sogar recht zuverlässig vorhersagen, ob jemand homosexuell oder ein Gewalttäter ist. Technologie, die nach Zukunftsmusik klingt, aber längst im Einsatz ist. Bei Datensöldnern wie Cambridge Analytica - nach dem Skandal um die Unterstützung des Trump-Wahlkampfes machte die Firma dicht, das Management heuerte umgehend bei der Neugründung Emerdata an - ebenso wie bei Regierungen und Behörden.
Verrät das Gesicht, wenn jemand
pädophil ist? - [krimineller Mossad will mit
der Gesichts-Spionagefirma "Faception"
Verbrecher "erkennen"]
Behörden werden etwa von der von einem
israelischen Geheimdienstveteran gegründeten
Firma Faception mit der nötigen
Technologie beliefert. Sie verspricht, auf
Flughäfen und an öffentlichen Plätzen per
Gesichtsscan vorhersagen zu können, wie
intelligent jemand ist, ob es sich um einen
Straftäter handelt, oder ob man es mit einem
potenziellen Kinderschänder zu tun hat. „Wir
wissen beispielsweise, dass es einen
Zusammenhang zwischen dem Testosteronlevel
und der Wahrscheinlichkeit, ein Verbrechen
zu begehen gibt, und dass das auch mit
Gesichtsmerkmalen verknüpft ist. Und
das ist nur eine Verbindung. Es gibt Tausende
Millionen andere, die wir noch nicht kennen, die
Computer aber sehr einfach entdecken können“,
erklärt Kosinski.
„War ehrlich schockiert, dass es so
einfach ist“ - ["KI-Schwulenradar", um Homos
und Heteros am Gesicht erkennen]
Auch wenn Kosinski die Nutzung der
Technologie auf solche Arten nicht unbedingt
gutheißt, ist er doch überzeugt davon, dass
seine Methoden funktionieren. „Ich war ehrlich
gesagt schockiert, als ich entdeckt habe, dass
es für einen Algorithmus so einfach ist,
zwischen homo- und heterosexuellen Menschen zu
unterscheiden“, sagt er im Gespräch mit dem
„Guardian“. Ihm sei zu Beginn selber nicht klar
gewesen wie es möglich war, doch sein
Algorithmus habe nach einer Weile bei Männern
mit 91- und bei Frauen mit 83-prozentiger
Genauigkeit die sexuelle Orientierung
prognostiziert. Kosinski hatte ein
„KI-Schwulenradar“ entwickelt, wie es die
Zeitung „Economist“ formulierte. Es spricht auf
Gesichtsmerkmale an. „Wir erwarten bei schwulen
Männern einen kleineren Kiefer und ein
kleineres Kinn, schmalere Augenbrauen, lange
Nasen und hohe Stirn.“
Die Ergebnisse erzeugten sofort einen Aufschrei bei anderen Wissenschaftlern, die Parallelen zu Schädelvermessern und Rassenlehre-Befürwortern des 19. Jahrhunderts zogen. Alexander Tororov, Psychologe an der Princeton-Universität, zerpflückte Kosinskis Arbeit, sprach von einer „neuen Ära des wissenschaftlichen Rassismus“, zog in einem Essay Vergleiche mit Nazi-Methoden. Tororov und andere Forscher argumentierten, Kosinskis Algorithmus könne ja auch auf andere Faktoren als die Gesichtsform - etwa Schminke oder Rasur - angesprochen haben. Kosinski beharrt indes darauf, dass seine Erfindung funktioniert. Eine Erfindung, die in Homosexualität ablehnenden Ländern wie Russland oder Saudi-Arabien potenziell gefährlich sein könnte, die ihr Entdecker aber nicht unter Verschluss halten wollte. „Es wäre moralisch falsch, so etwas unter Verschluss zu halten.“ Wenn es nämlich funktioniere, wie Kosinski das demonstriert habe, müsse man davon ausgehen, dass es längst bei Regierungen und Konzernen Anwendung finde.
Regierungen und Geheimdienste stehen Schlange
Tatsächlich interessiert sich allerdings nicht unbedingt die breite Öffentlichkeit für Kosinskis Forschung. Ihr Interesse an Datenschutz und ungefragter Kategorisierung zu Marketingzwecken ebbt nach großer Empörung über den Cambridge-Analytica-Skandal längst wieder ab. Kosinski lockt aber andere Akteure an. Regierungen wie jene von Russland, die in Kosinskis Möglichkeiten zur Kategorisierung und somit letztlich auch Beeinflussung von Menschen Potenzial erkennt. Unternehmen wie Faception, die in der KI-Gesichtsauswertung ein gutes Geschäft sehen. Und Geheimdienste, die bei der Überwachung der Bürger ob der Datenmengen, mit denen sie hantieren, über jede maschinelle Unterstützung glücklich sind.
„Glauben Sie, die CIA stellt sich als solche vor?“
Dass die von Kosinski maßgeblich mitbegründeten Technologien in die falschen Hände geraten, kann nicht ausgeschlossen werden. „Glauben Sie, wenn ein Geheimdienst an einen herantritt, dass sie sich dann mit ‚Hi, wir sind die CIA!‘ vorstellen?“, fragt Kosinski. „Nein, die stellen sich als Start-up vor, das sich für Ihre Arbeit interessiert und nach einem Berater sucht.“ Sage man Einladungen solcher Akteure zu, finde man sich schnell in einem Vortragsraum voll Uniformierter wieder. Für Kosinski gar nicht der schlechteste Gedanke. „Ich denke, dass die Leute, die für einen Überwachungsstaat arbeiten, mehr als jeder andere zu wissen verdienen, was sie da eigentlich tun und welche Risiken es birgt“, sagt der Forscher.
Die Privatsphäre, so Kosinski, sei ohnehin bereits Vergangenheit. „Es ist ein verlorener Krieg. Wir sollten uns lieber darauf konzentrieren, unsere Gesellschaft so zu organisieren, dass wir sicherstellen, dass auch die Post-Privatsphäre-Ära ein bewohnbarer und schöner Ort zum Leben ist.“>
========
27.7.2018: Spionage-Gesichtserkennungsprogramm "KI" bezeichnet viele Politiker als Kriminelle - kann Kriminelle und Intellektuelle nicht unterscheiden!!!
Gesichtserkennung: Amazon-KI erkennt Politiker als Verbrecher
https://www.krone.at/1746137
<KI-Systeme zur Gesichtserkennung, die Fotos mithilfe neuronaler Netzwerke analysieren, haben in den letzten Jahren enorme Fortschritte gemacht und kommen heute auf Flughäfen oder bei Polizeibehörden zum Einsatz, um Personen schnell und effektiv zu identifizieren. Doch sie sind nicht fehlerfrei. Darauf weisen US-Bürgerrechtler mit einem Experiment hin: Sie haben eine KI-Gesichtserkennung von Amazon mit Fotos Krimineller gefüttert und dann Bilder von Abgeordneten durch das System gejagt. Viele Politiker wurden als Kriminelle klassifiziert.
Für ihren Versuch haben die Bürgerrechtler der American Civil Liberties Union (ACLU) ein System zur Gesichtserkennung angemietet, das vom E-Commerce-Giganten Amazon, der auch in Cloud-Belangen eine große Nummer ist, angeboten wird. Sie fütterten das System mit 25.000 Polizeifotos von Verhafteten, berichtet das IT-Portal „Heise“. Anschließend testeten sie die Gesichtserkennung an 535 US-Kongressabgeordneten. Dabei wurden 28 Politiker von dem System mit einem der Kriminellen verwechselt. Wäre das System auf einem Flughafen im Einsatz gewesen, hätte das Sicherheitspersonal sie sich vermutlich genauer angeschaut.ACLU warnt: Gesichtserkennung nicht unfehlbar!
Die Bürgerrechtler wollen mit ihrem Experiment nicht etwa den Eindruck erzeugen, Politiker und Kriminelle hätten ähnliche Gesichtszüge. Sie wollen allerdings darauf hinweisen, dass KI-Systeme zur Gesichtserkennung, solange sie noch nicht vollständig fehlerfrei arbeiten, mit Vorsicht behandelt werden sollten. „Eine Identifizierung - akkurat oder nicht - könnte Menschen ihre Freiheit oder sogar ihr Leben kosten“, erklären die Bürgerrechtler, wohl mit Blick auf autoritäre Staaten, in denen solche Systeme auf großes Interesse stoßen.
Amazon übt Kritik am Versuchsaufbau
Amazon kritisiert in einer Reaktion die Versuchsmodalitäten. Die Bürgerrechtler hätten die Amazon-KI falsch eingestellt, wodurch es zu den Fehlalarmen gekommen sei. Konkret sei die Erkennungsgenauigkeit zu niedrig eingestellt worden. Die KI habe in dem Versuch bereits dann ein Gesicht als erkannt eingestuft, wenn sie sich zu 80 Prozent sicher war, dass sie die Person erkannt hat. Beim Einsatz bei Polizeibehörden sei aber eine Genauigkeit von zumindest 95 Prozent empfohlen. Eine 80-Prozent-Erkennungsrate sei nicht bei Menschen, sondern bei „Fotos von Hot Dogs, Stühlen oder Tieren“ angemessen.
US-Behörden setzen bereits KI-Systeme ein
Auch, wenn Amazon beschwichtigt: Dass KI-Systeme zur Gesichtserkennung in den USA längst eingesetzt werden, ist bekannt. In dem Bericht wird etwa auf die Polizei in Orlando im US-Bundesstaat Florida verwiesen, welche Experimente - wohlgemerkt mit Fotos der Polizisten, die das System später einmal nutzen sollen - in diesem Bereich macht. Im US-Bundesstaat Oregon hat die Polizei bereits ein System zur Gesichtserkennung im Einsatz. Es wurde mit 300.000 Fotos von Kriminellen gefüttert und kann genau verfolgen, welche einmal verhaftete Person wo von einer Kamera aufgenommen wird. Auch hier kommt das Amazon-System zum Einsatz, das diese Dienste für erstaunlich günstige sechs bis zwölf US-Dollar pro Monat bereitstellt.
Gesichtserkennung entwickelt sich zu
Streitthema
ACLU fordert angesichts der
Möglichkeit von Fehlerkennungen ein Moratorium
solcher Versuche in den USA. Ob ein solches
kommt, ist allerdings ungewiss. Zu weit
fortgeschritten sind Experimente mit
Gesichtserkennung nicht nur in den USA,
sondern weltweit. Experten gehen davon aus,
dass es auf
Flughäfen schon in wenigen Jahren
automatisierte Systeme geben wird, die nicht
nur Passagiere erkennen, sondern sie sogar
kategorisieren und anhand bestimmter
Merkmale beispielsweise als terrorverdächtig
einstufen können. Das wirft wiederum Fragen
auf, ob solche Systeme, die Aussagen über
Menschen treffen, nicht missbräuchlich
verwendet oder von den Vorurteilen ihrer
Schöpfer geprägt werden könnten.
Totale Anarchie auf der Welt mit
Spionageprogramm SyRI, das Leute IM VORAUS zu
Verbrechern stempelt:
Holland 25.10.2018: Widerstand gegen das kriminelle Spionageprogramm SyRI, das Leute im Voraus zu Verbrechern stempelt:
Minority-Report im Tulpenland: Datenkrake errechnet mögliche Gesetzesbrecher
http://brd-schwindel.ru/minority-report-im-tulpenland-datenkrake-errechnet-moegliche-gesetzesbrecher/
<von Niki Vogt
In den Niederlanden hat eine Gemeinschaft mehrerer Bürgerrechtsinitiativen ein Grundsatzverfahren angestrengt, das den Einsatz einer ausgetüftelten Software verbieten soll, mit deren Hilfe die Kommunen mögliche Sozialbetrüger und Kriminelle ausfindig machen kann. Das Programm heißt „SyRI“, eine Big-Data Analyse aller möglichen erhobenen, persönlichen Daten und ist zur Zeit in vier Kommunen in den Niederlanden im Einsatz: In Capelle aan den Ijssel, Eindhoven, Haarlem und Rotterdam.
[Film "Minority
Report": Verdächtige werden OHNE Delikt
verhaftet, verurteilt und eingesperrt -
aufgrund von falscher Hellseherei]
Die Kunst nimmt ja oft spätere Ereignisse und
Entwicklungen vorweg. In dem Film
„Minority-Report“ mit Tom Cruise werden mithilfe
von mehreren Hellsehern, die in einem
tranceähnlichen Zustand gehalten werden, Morde
vorhergesagt. Anhand der Sehungen lassen sich
Opfer und Täter identifizieren. Der zukünftige
Täter wird verhaftet, bevor er die Tat begangen
hat und wird ohne Beweis oder Verhandlung in
„Verwahrung“ überstellt, eine künstlich
induzierte, dauerhafte Bewusstlosigkeit.
[Der kriminelle
Generalverdacht durch das Spionageprogramm
SyRI - bis ins komplette Privatleben wird
alles ausspioniert]
So spannend und drastisch geht es in den vier
Städten der Niederlande allerdings nicht zu,
dennoch sehen die Bürgerrechtler dringenden
Handlungsbedarf. Ihrer Meinung nach stellt
das Programm SyRI alle Bürger unter
Generalverdacht. Die rechtlichen
Möglichkeiten für den Eingriff in alle möglichen
Bereiche der Privatsphäre seien vom Gesetzgeber
derart schrankenlos, dass dieser Umfang den
Schutz der Privatsphäre vollkommen unterlaufe
und daher mit Artikel 8 der
Menschenrechtskommission (Schutz der
Privatsphäre) nicht mehr vereinbar sei.
[Bürgerrechtsorganisation
in Holland mit Widerstand gegen SyRI -
die Funktion des Spionageprogramms wird
verheimlicht, um weitere Täter zu haben, sonst
wissen die, was sie nicht tun dürfen]
Nun erweist sich dieses Programm, das man
offenbar schon als eine Art künstlicher
Intelligenz sehen kann, als eine ziemliche
Blackbox und die Behörden wollen – wenig
überraschend – auch nicht damit herausrücken,
wie es genau funktioniert. Auf Anfrage der
Bürgerrechtsorganisation „Bij voorbaat verdacht“ (von
vorneherein verdächtig), die sich auf das
Grundrecht der Informationsfreiheit berief, kam
von der zuständigen Behörde folgende Antwort:
„Bei dem Risikomodell handelt es sich um eine Sammlung eines oder mehrerer Sets zusammenhängender Risikoindikatoren, die in ihrer Kombination eine Einschätzung des Risikos ermöglichen, dass bestimmte natürliche oder Rechtspersonen nicht in Übereinstimmung mit dem geltenden Recht handeln. Würde man offenlegen, nach welchen Daten und Zusammenhängen die Inspectie SZW sucht, so wüssten (potentielle) Gesetzesbrecher genau, auf welche gespeicherten Angaben sie sich konzentrieren müssten.“
[SyRI erfindet
den "Risikobürger" - niemand erfährt, dass
SyRI Leute ausspioniert: Behördendaten,
Versicherungsdaten, Bankkonten]
Einige der Zutaten, aus denen
SyRI seine Profile erstellt, sind allerdings
schon bekannt. Es gibt 17 Kategorien
personenbezogener Daten, die rechtlich im
SyRi-Projekt zur Profilerstellung verwendet
werden dürfen, um „Risikobürger“ zu
identifizieren. Allein das, was
darüber bekannt ist, macht schon ein
mulmiges Gefühl in der Magengegend.
So werden Beschäftigungsdaten, Bußgelder, staatliche Unterstützungsleistungen, Steuerdaten, Details zum Wohnsitz und der Einbürgerungsbehörde, zu längerer Nichtarbeit wegen Krankheit, zur anschließenden Re-Integration am Arbeitsplatz, private Schulden und Daten der Krankenversicherung herangezogen und miteinander abgeglichen, damit das geheimnisvolle SyRI sich ein genaues Bild über den Betreffenden konstruieren kann. Bedenklich finden die Bürgerrechtler auch, dass niemand davon erfährt, dass er von SyRI erfasst und analysiert wird und auch nicht, welche Folgen die Auswertungen dieser künstlichen, Profile erstellenden Intelligenz für ihn hat.
Welche Daten davon genau wie kombiniert werden und gewichtet und ob es nicht noch weitere Datenquellen gibt, ist unbekannt. Wenn also schon zugegeben wird, dass private Schulden mit einfließen in die Auswertung, darf man wohl vermuten, dass auch Informationen aus persönlichen Bankkonten mit verwertet werden und damit auch die Möglichkeit besteht, sich die einzelnen Transaktionen genauer anzuschauen: Kommt da vielleicht deutlich mehr Geld auf das Konto, als bei der Steuer angegeben?
Bisher soll das Programm ausschließlich Hinweise auf potentielle Betrüger liefern, die zum Beispiel unrechtmäßig Wohngeld oder Arbeitslosengeld vom Staat beziehen oder Steuerbetrug begehen, Schwarzarbeit betreiben oder illegalen Handel. Die drei Letzteren kann man aber wahrscheinlich tatsächlich nur aus den Transaktionen auf den Bankkonten ersehen. Was in der Tat ein ziemlich heftiger Eingriff in die Privatsphäre wäre.
Man darf vermuten,
dass, hat er einmal die Möglichkeit zu solchen
Informationen, der Staat dann auch andere
Verwendungen für die erhobenen Daten findet und
das Programm entsprechend anpassen kann.
[SyRI=System Risk Indikation - der "Treffer"
- die "Risikomeldung"]
Das Kürzel „SyRI“ steht für System Risk Indikation. Sie führt Informationen über jeden Bürger im Erfassungsbereich der verschiedenen Behörden und staatlichen Einrichtungen – und anscheinend Banken – zusammen. Zeigt das daraus von dem Programm erarbeitete Profil Unstimmigkeiten und Auffälligkeiten, schaut sich eine Sachbearbeiterin des Sozialministeriums die Sache genauer an.
Erscheint ihr das
Profil tatsächlich als möglicher Treffer, macht
sie eine Risikomeldung, die an die
entsprechenden Behörden (Finanzamt, Polizei,
Einwanderungsbehörde, Ordnungsamt, Sozialamt)
weitergeleitet wird. Dann muss ein Kontrolleur
nachforschen, ob der Verdacht zutrifft und wie
die Verhältnisse tatsächlich sind.
[SyRI und die Rufmorde: Falscher Alarm am
Laufband - Beispiel Altersheime]
Es gibt offenbar
auch viele falsche Alarme, so genannte „falsch
positive Signale“. So kann es zum Beispiel
vorkommen, dass ein Altenheim in Verdacht gerät,
weil eine große Zahl von Empfängern der
Grundaltersversorgung auf derselben Adresse
gemeldet sind, was das System vermuten lässt,
dass sie alle in einem gemeinsamen Haushalt
wohnen, das nicht angegeben haben und
unrechtmäßig jeder noch einmal extra seine
Unterstützung kassiert. Das System bekommt dann
entsprechende Informationen von den menschlichen
Datenanalytikern, sodass es lernen kann und
solche Muster in Zukunft erkennt.
[SyRI in No-Go-Zonen ist KEINE Lösung
- sondern die Armut steigt weiter]
Dieses
SyRI-Minority-Report Szenario ist eine der
Folgen unkontrollierter Zuwanderung.
Die Niederlande hatten den Ruf, äußerst
weltoffen, liberal und ein gut organisierter
Wohlfahrtsstaat zu sein, der die Rechte seiner
Bürger respektierte und in dem man frei leben
konnte. Man lebte gut, selbst mit Sozialgeld
ließ es sich recht angenehm leben. Entlarvend
ist, dass die vier Kommunen, in denen SyRI
eingesetzt wird, auch Brennpunkte der
Zuwanderung sind.
Die vier genannten Kommunen kämpfen mit
Problemen in Vierteln, in denen eine „Erosion
der Werte und Normen“ festzustellen ist. In
diesen Stadtteilen leben viele
„Multi-Problem-Familien“, deren Tagesablauf und
Lebensinhalt das pure Überleben sei. Dort sei
weiterhin ein „überproportionaler Anteil an
Sozialwohnungen“ anzutreffen. Viele nur
zeitweise dort lebende Arbeitsmigranten, die
sich nicht mit Wohnsitz melden, führen zu einem
absterbenden sozialen Zusammenhalt.
In Garagen wird illegal alles Mögliche gelagert, produziert, verschoben – der Schwarzhandel blüht, Schuldenprobleme erdrücken die Familien, Kinder wachsen in Armut auf, schwänzen die Schule und bekommen kaum eine auch nur minimale Bildung, Analpabetismus ist eher die Regel als die Ausnahme, die Zukunft dieser Kinder sieht dunkelfinster aus. In solchen Wohngegenden liegt es nahe, die Möglichkeiten des Sozialbetruges weidlich zu nutzen.
Wie wir auch aus Deutschland wissen, funktioniert das recht gut. Immer wieder wird berichtet, dass Terrorverdächtige in mehreren Städten unter verschiedenen Namen gemeldet waren, mehrfach die staatlichen Unterstützungsleistungen kassierten und nicht selten auf diese Weise über 10.000 Euro monatlich ergaunerten.
Wer nun sich entspannt zurücklehnt und findet, das sei doch mal eine gute Sache, dass den kriminellen Migranten auf die Finger gehauen wird, denkt ein wenig zu kurz. Das Migrationsprogramm läuft weiter. Man will zwar das Chaos in den Griff bekommen, aber letztlich die Einwanderung nur managen und kontrollieren und die europäischen Völker gleich mit. Dann werden die Maschen immer enger und auch die friedlichen Bürger totalüberwacht und dressiert.>
GB 22.12.2018: Die Spionageprogramme wollen Augen von "Psychopathen" herausfinden - nur die Kriegstreiber und Vatikan-Psychopathen bleiben unverschont:
https://de.sputniknews.com/wissen/20181222323367847-augen-psychopath-studie/
<Forscher von den britischen Universitäten Cardiff und Swansea haben bei psychopathischen Häftlingen eine Besonderheit in der Reaktion ihrer Augen festgestellt. Das ist einer der ersten objektiven Hinweise, der bei der Entlarvung von Psychopathen helfen soll, berichtet die Cardiff University auf ihrer offiziellen Internet-Seite.
Das Forscher-Team um Dr. Dan Burley untersuchte die Effekte von schrecklichen Bildern, die etwa verstümmelte Körper oder bedrohliche Hunde zeigen, bei psychopathischen und nicht-psychopathischen Häftlingen. Dabei stellten die Wissenschaftler einen gravierenden Unterschied in den Reaktionen ihrer Augen fest: Psychopathen haben keine Pupillenregung.
Normalerweise verändert die Pupille ihre Größe, wenn jemand aufgebracht oder aufgeregt ist. Die Pupillen der psychopathischen Häftlinge blieben jedoch im Normalzustand und veränderten sich nicht.„Unsere Erkenntnisse erbringen einen physischen Nachweis für ein emotionales Defizit, das für psychopathische Straftäter üblich ist“, zitiert die Universität Burley.
Obwohl Psychopathen keine Reaktion auf negative Bilder zeigten, reagierten sie normal auf positive Bilder, etwa Fotos von kleinen Hunden oder glücklichen Pärchen. Das könnte bedeuten, dass es bei der Psychopathie nicht um übergreifende Schwierigkeiten geht, emotional zu reagieren. Die Betroffenen seien eher unsensibel gegenüber bedrohlichen, unangenehmen Informationen, so die Forscher.„Das ist eines der ersten Male, dass wir einen objektiven, körperlichen Beweis für ein dem rechtswidrigen Verhalten psychopathischer Täter zugrundeliegendes emotionales Defizit ermitteln, der nicht von invasiven Methoden oder teurer Ausrüstung abhängt“, so die Professorin Nicola Gray von der Swansea Universität, an der sie als klinische und forensische Psychologin mit Beobachtungen und Recherchen zur Psychopathie beschäftigt ist.>
Massachusetts 29.6.2019: "Forscher" programmieren ein Psychopathen-Leben - heilen hilft das aber nicht:
„Er sieht überall nur Tod“ – Forscher programmieren Psychopathen-Computer
https://de.sputniknews.com/wissen/20180623321228742-psychopathen-test-ki-mit/
<Du bist, was du isst: Die Künstliche Intelligenz „Norman“ hat ausschließlich von grausamem Bildmaterial gelernt und ist zum weltweit ersten Psychopathen-Algorithmus geworden. Damit wollten die Forscher vom Massachusetts Institute of Technology zeigen, wie stark der Datensatz das Verhalten der Maschine beeinflusst.
Alexa, erzähl mir einen Witz. Alexa: „Du wirst einen grausamen Tod sterben.“ So könnte ein Dialog mit einem Assistenten aussehen, wenn dieser mit bestimmten Daten gefüttert wird. Zumindest haben das Forscher des Massachusetts Institute of Technology (MIT) in den USA anhand von Bildmaterial gezeigt. Die Forscher wollten demonstrieren: „Die Daten, die zum Lernen verwendet werden, können das Verhalten des Algorithmus signifikant beeinflussen.“ Das erklärt Pinar Yanardag Delul, der am Projekt beteiligt ist.
Also fütterten die Informatiker einen Algorithmus ausschließlich mit Begleittexten von Bildern auf dem Subreddit /r/watchpeopledie. In diesem dunklen Bereich von Reddit geht es ausschließlich darum, Materialien zu posten, auf denen Menschen zu sehen sind, die sterben. Zu zeigen war: „Derselbe Algorithmus kann verschiedene Dinge in einem Bild sehen, sogar böse Dinge, wenn er mit einem falschen Datensatz trainiert wird“, so Delul.Nachdem ein Algorithmus so trainiert worden war, zeigten die Forscher ihm sogenannte Rorschach-Bilder. Das sind abstrakte Tintenflecke, die Versuchsteilnehmer bei psychologischen Tests interpretieren sollen. Was sie darin erkennen, sagt dann umgekehrt etwas über ihre Persönlichkeit aus. Das Experiment ist gelungen: Der Algorithmus, der mit gewalttätigem Datenmaterial gefüttert worden war, wies die Persönlichkeitszüge eines Psychopathen auf. „Er sieht den Tod in jedem Bild, das man ihm zu sehe gibt“, drückt es Delul aus.>