Private Smarts: Können Digitale Assistenten Arbeiten, Ohne In Unser Leben Einzudringen?
Private Smarts: Können Digitale Assistenten Arbeiten, Ohne In Unser Leben Einzudringen?

Video: Private Smarts: Können Digitale Assistenten Arbeiten, Ohne In Unser Leben Einzudringen?

Отличия серверных жестких дисков от десктопных
Video: LIVE 🔴 Piks Lotterie, Schweiz 🇨🇭 3G Einreise, 🇵🇹🇸🇪 gegen 🇮🇱 neue Mafia in 🇮🇹 2023, Februar
Anonim

Personalisierte KI erfordert persönliche Daten. Apple, Google und andere sagen, dass sie jetzt mehr davon nutzen können, während Datenschutz und Sicherheit intakt bleiben.

Private Smarts: Können digitale Assistenten arbeiten, ohne in unser Leben einzudringen?
Private Smarts: Können digitale Assistenten arbeiten, ohne in unser Leben einzudringen?

Egal, ob es verwendet wird, um Poker-Weltmeister auszutricksen oder Friseurtermine mit (meistens) überzeugender menschlicher Stimme zu planen, AI und die zugrunde liegenden Algorithmen für maschinelles Lernen machen immer große Fortschritte in ihren Fähigkeiten - und in immer intimere Bereiche unseres Lebens. Und wie jede technologische Leistung, die auf der Erfassung und Analyse massiver Datensätze beruht, sind einige dieser Durchbrüche mit erheblichen Datenschutzrisiken verbunden. Nachrichten eine relative Garantie, keine absolute “, sagt er.

Um sensible Benutzerdaten vollständig von Remoteservern fernzuhalten, experimentiert Google mit einem Ansatz, der als Verbundlernen bezeichnet wird. Anstatt Daten zu sammeln und zu senden, um seine Modelle für maschinelles Lernen zu trainieren, sendet das Unternehmen die Modelle selbst direkt an den Benutzer. Sie laden das aktuelle Trainingsmodell auf Ihr Smartphone herunter, das Modell ändert sich basierend auf dem, was es aus Ihren persönlichen Daten lernt, und dann geht dieses aktualisierte Modell zurück in die Cloud und wird mit allen anderen aktualisierten Modellen gemittelt. Google sieht oder sammelt Ihre persönlichen Daten zu keinem Zeitpunkt.

Trotz dieser Maßnahmen haben einige Sicherheitsforscher immer noch Vorbehalte. Sie weisen beispielsweise darauf hin, dass Hacker Benutzerdaten leicht zurückentwickeln können, wenn sie Zugriff auf die Modelle für maschinelles Lernen erhalten. Darüber hinaus sind Strategien wie die differenzierte Privatsphäre nur nützlich, um allgemeine Trends über eine große Gruppe oder Bevölkerung zu erfahren, sagt Aleksandra Korolova, Professorin an der University of Southern California und ehemalige Google-Wissenschaftlerin. Diese Strategien, sagt sie, enthüllen keine wichtigen Erkenntnisse auf der Ebene des Einzelnen - was vermutlich das ist, was digitale Assistenten am meisten tun müssten.

Das größte Problem ist, dass all diese Techniken laut der University of California, Berkeley, Professorin und Sicherheitsforscherin Raluca Ada Popa, effektiv dazu führen, dass Softwarewände um Daten herum aufgebaut werden. "Angreifer brechen immer in Software ein, so dass diese Wände niemals ein narrensicherer Mechanismus sind", sagt sie.

Popa und einige ihrer Kollegen im RISELab von Berkeley sind der Meinung, dass sie eine bessere Lösung haben, um Erkenntnisse aus sehr persönlichen Daten zu gewinnen. Eine sichere Mehrparteienberechnung (pdf) soll es Technologieunternehmen ermöglichen, die gewünschten Informationen aus mehreren verschlüsselten Datenquellen zu sammeln, ohne dass diese Quellen ihre privaten Daten preisgeben müssen. Tatsächlich können Forscher Informationen untersuchen, die in großen verschlüsselten Datensätzen enthalten sind, ohne die Rohdaten in diesen Datensätzen anzeigen zu müssen. Unabhängig davon, ob es darum geht, bessere Prädiktoren für die Krebsbehandlung zu finden oder personalisierte Anzeigen und Restaurantempfehlungen zu schalten, müssten Unternehmen die zugrunde liegenden persönlichen Informationen nicht einmal sehen - und könnten es auch nicht, selbst wenn sie dies wollten. "Ich denke wirklich, dass dies die Zukunft ist, weil Sie Ihre Daten nicht mehr aufgeben müssen, um all diese nützlichen KI- und maschinellen Lernprozesse durchzuführen", sagt Popa.

Amazon, Apple, Google, Microsoft und andere große Technologieunternehmen haben möglicherweise unterschiedliche Geschäftsmodelle und Motivationen für die Datenerfassung, doch alle haben ihre Zukunft darauf ausgerichtet, die Intelligenz ihrer Geräte und Dienste zu verbessern. Das bedeutet, dass ihre Datenerfassungsbemühungen wahrscheinlich nur zunehmen werden - und wie viele Menschen in den letzten Monaten festgestellt haben, ist die Menge an persönlichen Informationen, über die diese Unternehmen bereits verfügen, oft erstaunlich. Eines Tages kann es möglich sein, hochpräzise, ​​hochgradig personalisierte KI mit privaten Daten zu trainieren, ohne die Privatsphäre der Benutzer zu beeinträchtigen. Derzeit gibt es jedoch nur einen Weg, um sicherzustellen, dass Ihre vertraulichen Informationen nicht in die falschen Hände gelangen: Geben Sie sie nicht weiter.

Beliebt nach Thema