Kontakt / contact       Hauptseite / page
                    principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<         >>


Teilen / share:

Facebook







Die Verbrecher-Vorhersage-Spionage:

-- Krimineller Mossad mit der Firma "Faception": Kombination von Facebook-Likes und KI-Gesichtserkennung - "Psychologe" Michal Kosinski (8.7.2018)
-- Spionage-Gesichtserkennung "KI" kann Kriminelle und Intellektuelle nicht erkennen (27.7.2018)
-- Kriminelles Spionage-Programm SyRI mit "Big-Data-Analyse" stempelt Menschen zu Verbrechern - Rufmorde und falsche Alarme am Laufband (25.10.2018)





Krimineller Mossad will mit Computerprogrammen Verbrecher vorhersagen - mit nur 90% Genauigkeit

Kronenzeitung online, Logo

8.7.2018: Spionage am Gesicht will Homos, Heteros und Verbrecher vorhersagen - aber nur 80 bis 90% Genauigkeit - krimineller Mossad mit Firma Faception:
Fragwürdige Forschung: Neue Technologie erkennt Sex-Vorlieben am Gesicht

https://www.krone.at/1736423

<Kritiker sehen in ihm eine Art digitalen Hexenmeister, der in einem Zeitalter ohne Privatsphäre ethisch unglaublich fragwürdige Experimente durchführt. Er selbst sieht sich als Forscher, der die Öffentlichkeit über die Möglichkeiten von Big Data und künstlicher Intelligenz aufklärt. Die Rede ist vom Psychologen Michal Kosinski (36). Er hat Technologien entwickelt, die auf Basis von Facebook-Likes Personenprofile erstellen und allein durch die KI-Auswertung von Fotos intimste Details bis hin zur sexuellen Orientierung aus einem Gesicht herauslesen. In den Händen einer Diktatur eine potenziell tödliche Waffe.

„Ich habe die Bombe nicht gebaut. Ich habe den Menschen nur gezeigt, dass sie existiert“, zitiert der britische „Guardian“ am Samstag den in Warschau geborenen Psychologen und Sohn eines Programmiererpaares, der heute an der Universität Cambridge lehrt. Kosinski hat sich in den letzten Jahren den Ruf eines Vordenkers erarbeitet, der mithilfe riesiger Datenberge und Künstlicher Intelligenz Zusammenhänge erkennen kann, von denen man nicht gedacht hätte, dass sie existieren. Kosinski schließt nicht nur von Facebook-„Likes“ auf Persönlichkeit oder Intellekt eines Menschen. Er errechnet sogar aus Bildern des Gesichts, welche sexuelle Orientierung er hat.

Kosinski-Vortrag für russische Regierungsmitglieder
Kosinskis Forschung hat eine gewisse Sprengkraft und hat dem jungen Psychologiedoktor aus Polen harsche Kritik von Kollegen - manche einer fühlt sich von seinen Methoden an Rassenlehre erinnert - und Bewunderung von Marketingspezialisten und Politikern eingebracht. Vor einem Jahr hat ihn ein Hubschrauber in einen Moskauer Vorort geflogen, wo er russischen Politikern wie Premier Dimitri Medwedew und Außenminister Sergej Lawrow erklärt hat, was man allein auf der Basis der im Internet hinterlassenen Spuren und des Gesichts eines Menschen alles über diesen in Erfahrung bringen und wie man diese Informationen verwenden kann. Kosinskis Arbeit hat auch die manipulativen Kampagnen der Datenanalysefirma Cambridge Analytica inspiriert. Aber wie funktionieren seine Techniken genau?

Neuronale Netzwerke erkennen Muster im Datenhaufen
In dem Bericht erklärt der Forscher seine Methoden. Er nutze riesige Datenberge - etwa solche, die er mithilfe von Facebook-Umfragen gewonnen hat - und nutzt sogenannte neuronale Netzwerke zur schnellen parallelen Verarbeitung dieser Datenmengen, um Muster darin zu erkennen. Mit neuen Algorithmen zur Gesichtserkennung kann er laut eigenen Angaben sogar recht zuverlässig vorhersagen, ob jemand homosexuell oder ein Gewalttäter ist. Technologie, die nach Zukunftsmusik klingt, aber längst im Einsatz ist. Bei Datensöldnern wie Cambridge Analytica - nach dem Skandal um die Unterstützung des Trump-Wahlkampfes machte die Firma dicht, das Management heuerte umgehend bei der Neugründung Emerdata an - ebenso wie bei Regierungen und Behörden.

Verrät das Gesicht, wenn jemand pädophil ist? - [krimineller Mossad will mit der Gesichts-Spionagefirma "Faception" Verbrecher "erkennen"]
Behörden werden etwa von der von einem israelischen Geheimdienstveteran gegründeten Firma Faception mit der nötigen Technologie beliefert. Sie verspricht, auf Flughäfen und an öffentlichen Plätzen per Gesichtsscan vorhersagen zu können, wie intelligent jemand ist, ob es sich um einen Straftäter handelt, oder ob man es mit einem potenziellen Kinderschänder zu tun hat. „Wir wissen beispielsweise, dass es einen Zusammenhang zwischen dem Testosteronlevel und der Wahrscheinlichkeit, ein Verbrechen zu begehen gibt, und dass das auch mit Gesichtsmerkmalen verknüpft ist. Und das ist nur eine Verbindung. Es gibt Tausende Millionen andere, die wir noch nicht kennen, die Computer aber sehr einfach entdecken können“, erklärt Kosinski.

„War ehrlich schockiert, dass es so einfach ist“ - ["KI-Schwulenradar", um Homos und Heteros am Gesicht erkennen]
Auch wenn Kosinski die Nutzung der Technologie auf solche Arten nicht unbedingt gutheißt, ist er doch überzeugt davon, dass seine Methoden funktionieren. „Ich war ehrlich gesagt schockiert, als ich entdeckt habe, dass es für einen Algorithmus so einfach ist, zwischen homo- und heterosexuellen Menschen zu unterscheiden“, sagt er im Gespräch mit dem „Guardian“. Ihm sei zu Beginn selber nicht klar gewesen wie es möglich war, doch sein Algorithmus habe nach einer Weile bei Männern mit 91- und bei Frauen mit 83-prozentiger Genauigkeit die sexuelle Orientierung prognostiziert. Kosinski hatte ein „KI-Schwulenradar“ entwickelt, wie es die Zeitung „Economist“ formulierte. Es spricht auf Gesichtsmerkmale an. „Wir erwarten bei schwulen Männern einen kleineren Kiefer und ein kleineres Kinn, schmalere Augenbrauen, lange Nasen und hohe Stirn.“

Vergleiche mit Schädelvermessern und Rassenlehre
Die Ergebnisse erzeugten sofort einen Aufschrei bei anderen Wissenschaftlern, die Parallelen zu Schädelvermessern und Rassenlehre-Befürwortern des 19. Jahrhunderts zogen. Alexander Tororov, Psychologe an der Princeton-Universität, zerpflückte Kosinskis Arbeit, sprach von einer „neuen Ära des wissenschaftlichen Rassismus“, zog in einem Essay Vergleiche mit Nazi-Methoden. Tororov und andere Forscher argumentierten, Kosinskis Algorithmus könne ja auch auf andere Faktoren als die Gesichtsform - etwa Schminke oder Rasur - angesprochen haben. Kosinski beharrt indes darauf, dass seine Erfindung funktioniert. Eine Erfindung, die in Homosexualität ablehnenden Ländern wie Russland oder Saudi-Arabien potenziell gefährlich sein könnte, die ihr Entdecker aber nicht unter Verschluss halten wollte. „Es wäre moralisch falsch, so etwas unter Verschluss zu halten.“ Wenn es nämlich funktioniere, wie Kosinski das demonstriert habe, müsse man davon ausgehen, dass es längst bei Regierungen und Konzernen Anwendung finde.

Regierungen und Geheimdienste stehen Schlange
Tatsächlich interessiert sich allerdings nicht unbedingt die breite Öffentlichkeit für Kosinskis Forschung. Ihr Interesse an Datenschutz und ungefragter Kategorisierung zu Marketingzwecken ebbt nach großer Empörung über den Cambridge-Analytica-Skandal längst wieder ab. Kosinski lockt aber andere Akteure an. Regierungen wie jene von Russland, die in Kosinskis Möglichkeiten zur Kategorisierung und somit letztlich auch Beeinflussung von Menschen Potenzial erkennt. Unternehmen wie Faception, die in der KI-Gesichtsauswertung ein gutes Geschäft sehen. Und Geheimdienste, die bei der Überwachung der Bürger ob der Datenmengen, mit denen sie hantieren, über jede maschinelle Unterstützung glücklich sind.

„Glauben Sie, die CIA stellt sich als solche vor?“
Dass die von Kosinski maßgeblich mitbegründeten Technologien in die falschen Hände geraten, kann nicht ausgeschlossen werden. „Glauben Sie, wenn ein Geheimdienst an einen herantritt, dass sie sich dann mit ‚Hi, wir sind die CIA!‘ vorstellen?“, fragt Kosinski. „Nein, die stellen sich als Start-up vor, das sich für Ihre Arbeit interessiert und nach einem Berater sucht.“ Sage man Einladungen solcher Akteure zu, finde man sich schnell in einem Vortragsraum voll Uniformierter wieder. Für Kosinski gar nicht der schlechteste Gedanke. „Ich denke, dass die Leute, die für einen Überwachungsstaat arbeiten, mehr als jeder andere zu wissen verdienen, was sie da eigentlich tun und welche Risiken es birgt“, sagt der Forscher.

Die Privatsphäre, so Kosinski, sei ohnehin bereits Vergangenheit. „Es ist ein verlorener Krieg. Wir sollten uns lieber darauf konzentrieren, unsere Gesellschaft so zu organisieren, dass wir sicherstellen, dass auch die Post-Privatsphäre-Ära ein bewohnbarer und schöner Ort zum Leben ist.“>

========


Kronenzeitung online, Logo

27.7.2018: Spionage-Gesichtserkennungsprogramm "KI" bezeichnet viele Politiker als Kriminelle - kann Kriminelle und Intellektuelle nicht unterscheiden!!!
Gesichtserkennung: Amazon-KI erkennt Politiker als Verbrecher
https://www.krone.at/1746137

<KI-Systeme zur Gesichtserkennung, die Fotos mithilfe neuronaler Netzwerke analysieren, haben in den letzten Jahren enorme Fortschritte gemacht und kommen heute auf Flughäfen oder bei Polizeibehörden zum Einsatz, um Personen schnell und effektiv zu identifizieren. Doch sie sind nicht fehlerfrei. Darauf weisen US-Bürgerrechtler mit einem Experiment hin: Sie haben eine KI-Gesichtserkennung von Amazon mit Fotos Krimineller gefüttert und dann Bilder von Abgeordneten durch das System gejagt. Viele Politiker wurden als Kriminelle klassifiziert.

Für ihren Versuch haben die Bürgerrechtler der American Civil Liberties Union (ACLU) ein System zur Gesichtserkennung angemietet, das vom E-Commerce-Giganten Amazon, der auch in Cloud-Belangen eine große Nummer ist, angeboten wird. Sie fütterten das System mit 25.000 Polizeifotos von Verhafteten, berichtet das IT-Portal „Heise“. Anschließend testeten sie die Gesichtserkennung an 535 US-Kongressabgeordneten. Dabei wurden 28 Politiker von dem System mit einem der Kriminellen verwechselt. Wäre das System auf einem Flughafen im Einsatz gewesen, hätte das Sicherheitspersonal sie sich vermutlich genauer angeschaut.

ACLU warnt: Gesichtserkennung nicht unfehlbar!
Die Bürgerrechtler wollen mit ihrem Experiment nicht etwa den Eindruck erzeugen, Politiker und Kriminelle hätten ähnliche Gesichtszüge. Sie wollen allerdings darauf hinweisen, dass KI-Systeme zur Gesichtserkennung, solange sie noch nicht vollständig fehlerfrei arbeiten, mit Vorsicht behandelt werden sollten. „Eine Identifizierung - akkurat oder nicht - könnte Menschen ihre Freiheit oder sogar ihr Leben kosten“, erklären die Bürgerrechtler, wohl mit Blick auf autoritäre Staaten, in denen solche Systeme auf großes Interesse stoßen.

Amazon übt Kritik am Versuchsaufbau
Amazon kritisiert in einer Reaktion die Versuchsmodalitäten. Die Bürgerrechtler hätten die Amazon-KI falsch eingestellt, wodurch es zu den Fehlalarmen gekommen sei. Konkret sei die Erkennungsgenauigkeit zu niedrig eingestellt worden. Die KI habe in dem Versuch bereits dann ein Gesicht als erkannt eingestuft, wenn sie sich zu 80 Prozent sicher war, dass sie die Person erkannt hat. Beim Einsatz bei Polizeibehörden sei aber eine Genauigkeit von zumindest 95 Prozent empfohlen. Eine 80-Prozent-Erkennungsrate sei nicht bei Menschen, sondern bei „Fotos von Hot Dogs, Stühlen oder Tieren“ angemessen.

US-Behörden setzen bereits KI-Systeme ein
Auch, wenn Amazon beschwichtigt: Dass KI-Systeme zur Gesichtserkennung in den USA längst eingesetzt werden, ist bekannt. In dem Bericht wird etwa auf die Polizei in Orlando im US-Bundesstaat Florida verwiesen, welche Experimente - wohlgemerkt mit Fotos der Polizisten, die das System später einmal nutzen sollen - in diesem Bereich macht. Im US-Bundesstaat Oregon hat die Polizei bereits ein System zur Gesichtserkennung im Einsatz. Es wurde mit 300.000 Fotos von Kriminellen gefüttert und kann genau verfolgen, welche einmal verhaftete Person wo von einer Kamera aufgenommen wird. Auch hier kommt das Amazon-System zum Einsatz, das diese Dienste für erstaunlich günstige sechs bis zwölf US-Dollar pro Monat bereitstellt.

Gesichtserkennung entwickelt sich zu Streitthema
ACLU fordert angesichts der Möglichkeit von Fehlerkennungen ein Moratorium solcher Versuche in den USA. Ob ein solches kommt, ist allerdings ungewiss. Zu weit fortgeschritten sind Experimente mit Gesichtserkennung nicht nur in den USA, sondern weltweit. Experten gehen davon aus, dass es auf Flughäfen schon in wenigen Jahren automatisierte Systeme geben wird, die nicht nur Passagiere erkennen, sondern sie sogar kategorisieren und anhand bestimmter Merkmale beispielsweise als terrorverdächtig einstufen können. Das wirft wiederum Fragen auf, ob solche Systeme, die Aussagen über Menschen treffen, nicht missbräuchlich verwendet oder von den Vorurteilen ihrer Schöpfer geprägt werden könnten.

========

Totale Anarchie auf der Welt mit Spionageprogramm SyRI, das Leute IM VORAUS zu Verbrechern stempelt:

BRD-Schwindel online, Logo


Holland 25.10.2018: Widerstand gegen das kriminelle Spionageprogramm SyRI, das Leute im Voraus zu Verbrechern stempelt:
Minority-Report im Tulpenland: Datenkrake errechnet mögliche Gesetzesbrecher
http://brd-schwindel.ru/minority-report-im-tulpenland-datenkrake-errechnet-moegliche-gesetzesbrecher/

<von Niki Vogt

In den Niederlanden hat eine Gemeinschaft mehrerer Bürgerrechtsinitiativen ein Grundsatzverfahren angestrengt, das den Einsatz einer ausgetüftelten Software verbieten soll, mit deren Hilfe die Kommunen mögliche Sozialbetrüger und Kriminelle ausfindig machen kann. Das Programm heißt „SyRI“, eine Big-Data Analyse aller möglichen erhobenen, persönlichen Daten und ist zur Zeit in vier Kommunen in den Niederlanden im Einsatz: In Capelle aan den Ijssel, Eindhoven, Haarlem und Rotterdam.

[Film "Minority Report": Verdächtige werden OHNE Delikt verhaftet, verurteilt und eingesperrt - aufgrund von falscher Hellseherei]

Die Kunst nimmt ja oft spätere Ereignisse und Entwicklungen vorweg. In dem Film „Minority-Report“ mit Tom Cruise werden mithilfe von mehreren Hellsehern, die in einem tranceähnlichen Zustand gehalten werden, Morde vorhergesagt. Anhand der Sehungen lassen sich Opfer und Täter identifizieren. Der zukünftige Täter wird verhaftet, bevor er die Tat begangen hat und wird ohne Beweis oder Verhandlung in „Verwahrung“ überstellt, eine künstlich induzierte, dauerhafte Bewusstlosigkeit.

[Der kriminelle Generalverdacht durch das Spionageprogramm SyRI - bis ins komplette Privatleben wird alles ausspioniert]

So spannend und drastisch geht es in den vier Städten der Niederlande allerdings nicht zu, dennoch sehen die Bürgerrechtler dringenden Handlungsbedarf. Ihrer Meinung nach stellt das Programm SyRI alle Bürger unter Generalverdacht. Die rechtlichen Möglichkeiten für den Eingriff in alle möglichen Bereiche der Privatsphäre seien vom Gesetzgeber derart schrankenlos, dass dieser Umfang den Schutz der Privatsphäre vollkommen unterlaufe und daher mit Artikel 8 der Menschenrechtskommission (Schutz der Privatsphäre) nicht mehr vereinbar sei.

[Bürgerrechtsorganisation in Holland mit Widerstand gegen SyRI - die Funktion des Spionageprogramms wird verheimlicht, um weitere Täter zu haben, sonst wissen die, was sie nicht tun dürfen]

Nun erweist sich dieses Programm, das man offenbar schon als eine Art künstlicher Intelligenz sehen kann, als eine ziemliche Blackbox und die Behörden wollen – wenig überraschend – auch nicht damit herausrücken, wie es genau funktioniert. Auf Anfrage der Bürgerrechtsorganisation „Bij voorbaat verdacht“ (von vorneherein verdächtig), die sich auf das Grundrecht der Informationsfreiheit berief, kam von der zuständigen Behörde folgende Antwort:

Bei dem Risikomodell handelt es sich um eine Sammlung eines oder mehrerer Sets zusammenhängender Risikoindikatoren, die in ihrer Kombination eine Einschätzung des Risikos ermöglichen, dass bestimmte natürliche oder Rechtspersonen nicht in Übereinstimmung mit dem geltenden Recht handeln. Würde man offenlegen, nach welchen Daten und Zusammenhängen die Inspectie SZW sucht, so wüssten (potentielle) Gesetzesbrecher genau, auf welche gespeicherten Angaben sie sich konzentrieren müssten.“

[SyRI erfindet den "Risikobürger" - niemand erfährt, dass SyRI Leute ausspioniert: Behördendaten, Versicherungsdaten, Bankkonten]

Einige der Zutaten, aus denen SyRI seine Profile erstellt, sind allerdings schon bekannt. Es gibt 17 Kategorien personenbezogener Daten, die rechtlich im SyRi-Projekt zur Profilerstellung verwendet werden dürfen, um „Risikobürger“ zu identifizieren. Allein das, was darüber bekannt ist, macht schon ein mulmiges Gefühl in der Magengegend.

So werden Beschäftigungsdaten, Bußgelder, staatliche Unterstützungsleistungen, Steuerdaten, Details zum Wohnsitz und der Einbürgerungsbehörde, zu längerer Nichtarbeit wegen Krankheit, zur anschließenden Re-Integration am Arbeitsplatz, private Schulden und Daten der Krankenversicherung herangezogen und miteinander abgeglichen, damit das geheimnisvolle SyRI sich ein genaues Bild über den Betreffenden konstruieren kann. Bedenklich finden die Bürgerrechtler auch, dass niemand davon erfährt, dass er von SyRI erfasst und analysiert wird und auch nicht, welche Folgen die Auswertungen dieser künstlichen, Profile erstellenden Intelligenz für ihn hat.

Welche Daten davon genau wie kombiniert werden und gewichtet und ob es nicht noch weitere Datenquellen gibt, ist unbekannt. Wenn also schon zugegeben wird, dass private Schulden mit einfließen in die Auswertung, darf man wohl vermuten, dass auch Informationen aus persönlichen Bankkonten mit verwertet werden und damit auch die Möglichkeit besteht, sich die einzelnen Transaktionen genauer anzuschauen: Kommt da vielleicht deutlich mehr Geld auf das Konto, als bei der Steuer angegeben?

Bisher soll das Programm ausschließlich Hinweise auf potentielle Betrüger liefern, die zum Beispiel unrechtmäßig Wohngeld oder Arbeitslosengeld vom Staat beziehen oder Steuerbetrug begehen, Schwarzarbeit betreiben oder illegalen Handel. Die drei Letzteren kann man aber wahrscheinlich tatsächlich nur aus den Transaktionen auf den Bankkonten ersehen. Was in der Tat ein ziemlich heftiger Eingriff in die Privatsphäre wäre.

Man darf vermuten, dass, hat er einmal die Möglichkeit zu solchen Informationen, der Staat dann auch andere Verwendungen für die erhobenen Daten findet und das Programm entsprechend anpassen kann.

[SyRI=System Risk Indikation - der "Treffer" - die "Risikomeldung"]

Das Kürzel „SyRI“ steht für System Risk Indikation. Sie führt Informationen über jeden Bürger im Erfassungsbereich der verschiedenen Behörden und staatlichen Einrichtungen – und anscheinend Banken – zusammen. Zeigt das daraus von dem Programm erarbeitete Profil Unstimmigkeiten und Auffälligkeiten, schaut sich eine Sachbearbeiterin des Sozialministeriums die Sache genauer an.

Erscheint ihr das Profil tatsächlich als möglicher Treffer, macht sie eine Risikomeldung, die an die entsprechenden Behörden (Finanzamt, Polizei, Einwanderungsbehörde, Ordnungsamt, Sozialamt) weitergeleitet wird. Dann muss ein Kontrolleur nachforschen, ob der Verdacht zutrifft und wie die Verhältnisse tatsächlich sind.

[SyRI und die Rufmorde: Falscher Alarm am Laufband - Beispiel Altersheime]

Es gibt offenbar auch viele falsche Alarme, so genannte „falsch positive Signale“. So kann es zum Beispiel vorkommen, dass ein Altenheim in Verdacht gerät, weil eine große Zahl von Empfängern der Grundaltersversorgung auf derselben Adresse gemeldet sind, was das System vermuten lässt, dass sie alle in einem gemeinsamen Haushalt wohnen, das nicht angegeben haben und unrechtmäßig jeder noch einmal extra seine Unterstützung kassiert. Das System bekommt dann entsprechende Informationen von den menschlichen Datenanalytikern, sodass es lernen kann und solche Muster in Zukunft erkennt.

[SyRI in No-Go-Zonen ist KEINE Lösung - sondern die Armut steigt weiter]

Dieses SyRI-Minority-Report Szenario ist eine der Folgen unkontrollierter Zuwanderung. Die Niederlande hatten den Ruf, äußerst weltoffen, liberal und ein gut organisierter Wohlfahrtsstaat zu sein, der die Rechte seiner Bürger respektierte und in dem man frei leben konnte. Man lebte gut, selbst mit Sozialgeld ließ es sich recht angenehm leben. Entlarvend ist, dass die vier Kommunen, in denen SyRI eingesetzt wird, auch Brennpunkte der Zuwanderung sind.

Die vier genannten Kommunen kämpfen mit Problemen in Vierteln, in denen eine „Erosion der Werte und Normen“ festzustellen ist. In diesen Stadtteilen leben viele „Multi-Problem-Familien“, deren Tagesablauf und Lebensinhalt das pure Überleben sei. Dort sei weiterhin ein „überproportionaler Anteil an Sozialwohnungen“ anzutreffen. Viele nur zeitweise dort lebende Arbeitsmigranten, die sich nicht mit Wohnsitz melden, führen zu einem absterbenden sozialen Zusammenhalt.

In Garagen wird illegal alles Mögliche gelagert, produziert, verschoben – der Schwarzhandel blüht, Schuldenprobleme erdrücken die Familien, Kinder wachsen in Armut auf, schwänzen die Schule und bekommen kaum eine auch nur minimale Bildung, Analpabetismus ist eher die Regel als die Ausnahme, die Zukunft dieser Kinder sieht dunkelfinster aus. In solchen Wohngegenden liegt es nahe, die Möglichkeiten des Sozialbetruges weidlich zu nutzen.

Wie wir auch aus Deutschland wissen, funktioniert das recht gut. Immer wieder wird berichtet, dass Terrorverdächtige in mehreren Städten unter verschiedenen Namen gemeldet waren, mehrfach die staatlichen Unterstützungsleistungen kassierten und nicht selten auf diese Weise über 10.000 Euro monatlich ergaunerten.

Wer nun sich entspannt zurücklehnt und findet, das sei doch mal eine gute Sache, dass den kriminellen Migranten auf die Finger gehauen wird, denkt ein wenig zu kurz. Das Migrationsprogramm läuft weiter. Man will zwar das Chaos in den Griff bekommen, aber letztlich die Einwanderung nur managen und kontrollieren und die europäischen Völker gleich mit. Dann werden die Maschen immer enger und auch die friedlichen Bürger totalüberwacht und dressiert.>

========

Sputnik-Ticker online, Logo

GB 22.12.2018: Die Spionageprogramme wollen Augen von "Psychopathen" herausfinden - nur die Kriegstreiber und Vatikan-Psychopathen bleiben unverschont:
So verraten die Augen einen Psychopathen - Studie
https://de.sputniknews.com/wissen/20181222323367847-augen-psychopath-studie/

<Forscher von den britischen Universitäten Cardiff und Swansea haben bei psychopathischen Häftlingen eine Besonderheit in der Reaktion ihrer Augen festgestellt. Das ist einer der ersten objektiven Hinweise, der bei der Entlarvung von Psychopathen helfen soll, berichtet die Cardiff University auf ihrer offiziellen Internet-Seite.

Das Forscher-Team um Dr. Dan Burley untersuchte die Effekte von schrecklichen Bildern, die etwa verstümmelte Körper oder bedrohliche Hunde zeigen, bei psychopathischen und nicht-psychopathischen Häftlingen. Dabei stellten die Wissenschaftler einen gravierenden Unterschied in den Reaktionen ihrer Augen fest: Psychopathen haben keine Pupillenregung.

Normalerweise verändert die Pupille ihre Größe, wenn jemand aufgebracht oder aufgeregt ist. Die Pupillen der psychopathischen Häftlinge blieben jedoch im Normalzustand und veränderten sich nicht.

„Unsere Erkenntnisse erbringen einen physischen Nachweis für ein emotionales Defizit, das für psychopathische Straftäter üblich ist“, zitiert die Universität Burley.

Obwohl Psychopathen keine Reaktion auf negative Bilder zeigten, reagierten sie normal auf positive Bilder, etwa Fotos von kleinen Hunden oder glücklichen Pärchen. Das könnte bedeuten, dass es bei der Psychopathie nicht um übergreifende Schwierigkeiten geht, emotional zu reagieren. Die Betroffenen seien eher unsensibel gegenüber bedrohlichen, unangenehmen Informationen, so die Forscher.

„Das ist eines der ersten Male, dass wir einen objektiven, körperlichen Beweis für ein dem rechtswidrigen Verhalten psychopathischer Täter zugrundeliegendes emotionales Defizit ermitteln, der nicht von invasiven Methoden oder teurer Ausrüstung abhängt“, so die Professorin Nicola Gray von der Swansea Universität, an der sie als klinische und forensische Psychologin mit Beobachtungen und Recherchen zur Psychopathie beschäftigt ist.>

========

Sputnik-Ticker online,
                                        Logo

Massachusetts 29.6.2019: "Forscher" programmieren ein Psychopathen-Leben - heilen hilft das aber nicht:
„Er sieht überall nur Tod“ – Forscher programmieren Psychopathen-Computer
https://de.sputniknews.com/wissen/20180623321228742-psychopathen-test-ki-mit/

<Du bist, was du isst: Die Künstliche Intelligenz „Norman“ hat ausschließlich von grausamem Bildmaterial gelernt und ist zum weltweit ersten Psychopathen-Algorithmus geworden. Damit wollten die Forscher vom Massachusetts Institute of Technology zeigen, wie stark der Datensatz das Verhalten der Maschine beeinflusst.

Alexa, erzähl mir einen Witz. Alexa: „Du wirst einen grausamen Tod sterben.“ So könnte ein Dialog mit einem Assistenten aussehen, wenn dieser mit bestimmten Daten gefüttert wird. Zumindest haben das Forscher des Massachusetts Institute of Technology (MIT) in den USA anhand von Bildmaterial gezeigt. Die Forscher wollten demonstrieren: „Die Daten, die zum Lernen verwendet werden, können das Verhalten des Algorithmus signifikant beeinflussen.“ Das erklärt Pinar Yanardag Delul, der am Projekt beteiligt ist.

Also fütterten die Informatiker einen Algorithmus ausschließlich mit Begleittexten von Bildern auf dem Subreddit /r/watchpeopledie. In diesem dunklen Bereich von Reddit geht es ausschließlich darum, Materialien zu posten, auf denen Menschen zu sehen sind, die sterben. Zu zeigen war: „Derselbe Algorithmus kann verschiedene Dinge in einem Bild sehen, sogar böse Dinge, wenn er mit einem falschen Datensatz trainiert wird“, so Delul.

Nachdem ein Algorithmus so trainiert worden war, zeigten die Forscher ihm sogenannte Rorschach-Bilder. Das sind abstrakte Tintenflecke, die Versuchsteilnehmer bei psychologischen Tests interpretieren sollen. Was sie darin erkennen, sagt dann umgekehrt etwas über ihre Persönlichkeit aus. Das Experiment ist gelungen: Der Algorithmus, der mit gewalttätigem Datenmaterial gefüttert worden war, wies die Persönlichkeitszüge eines Psychopathen auf. „Er sieht den Tod in jedem Bild, das man ihm zu sehe gibt“, drückt es Delul aus.>


...
- weiter lesen auf RP Online: http://www.rp-online.de/panorama/deutschland/verfassungsschutz-will-scientology-nicht-mehr-ueberwachen-aid-1.3838822 Beobachtung "auf ein Minimum" beschränken: Verfassungsschutz will Scientology nicht mehr überwachen

weiter lesen: http://web.de/magazine/nachrichten/ausland/17695324-xkeyscore-infrastruktur-totalen-ueberwachung.html#.A1000145

<<         >>

Teilen/share:

Facebook






Fotoquellen
[1]



Sputnik-Ticker online, Logo  20 minuten online, Logo  Basler
                      Zeitung online, Logo     Schweizer Fernsehen online, Logo      Der Standard online, Logo  n-tv online, Logo      Journalistenwatch online, Logo  Watson online, Logo  Epoch Times
                      online, Logo  YouTube online,
                      Logo  Uncut News
                      online, Logo 
  Spiegel online, LogoDeutsche
                          Mittelstands-Nachrichten, LogoTagesanzeiger online, Logo    Facebook, Logo  Bild
                          online, Logo    Rheinische Post online, Logo  Gulli online, Logo  Netzfrauen online, Logo Kronenzeitung online, Logo   Deutsche Wirtschaftsnachrichten
                          online, Logo     Focus online, Logo  Welt
                          N24 online, Logo 
Heise online, Logo  Gegenfrage online, Logo  International Business Times online,
                          Logo         Neues Deutschland online   Crónica viva del Perú online, Logo    La República del Perú online, Logo    Futurezone online, Logo  RT online, Logo  Süddeutsche Zeitung online, Logo   Heise online, Logo    Alles Schall und Rauch, Logo  Extremnews online, Logo  Zuerst online, Logo 
World Socialist Web Site online,
                              Logo    Netzpolitik.org online, Logo    El
                          ojo del Perú online, Logo  


^