Wie können wir mit Deep-Tech die Demokratie schützen und dem allgemeinen Gefühl, dass etwas ins Rutschen gekommen ist, entgegentreten? 🤔 Ich kann mir einfach nicht vorstellen, dass KI und Big Data nur negative Auswirkungen auf eine demokratische Gemeinschaft haben können. So wie wir es gerade in allen Medien lesen. 📰
Letzte Woche war ich auf der 10. Jahreskonferenz des Forums Privatheit in Berlin. Die Vorträge behandelten das Thema Schutz der Privatheit, der eigenen Daten und der Selbstbestimmung darüber aus verschiedenen Blickwinkeln. 🔍
Mir wurde dabei klar, dass das Gefühl des „Rutschens“ auch maßgeblich damit zu tun hat, dass wir die Kontrolle über unsere Daten verlieren. Wir haben die Kontrolle darüber verloren, zu entscheiden:
🟡 Welche Informationen ich wirklich teilen möchte.
⚫ Was Geräte über mich permanent aufzeichnen.
🟡 Was mit diesen Daten anschließend gemacht wird.
⚫ Wer sie eigentlich alles erhält.
Das Ganze hinterlässt ein Gefühl von Ohnmacht und Ausgeliefertsein. Täglich „füttern“ uns Algorithmen und wie sie genau die Informationen auf Basis unserer Präferenzen auswählen, ist für uns völlig intransparent.
Aber nicht alles muss rutschen!
💡 Mit unserem Forschungsprojekt PRETINA demonstrieren wir, welche Informationen ein Unternehmen aus Blickdaten herauslesen kann. Wir gehen in den Dialog mit der Gesellschaft zu den Fragen:
➡️ Welche Gefühle löst das aus? 😊😠
➡️ Sind sie damit einverstanden? ✅❌
➡ Wie können wir Datenschutz und innovative Geschäftsmodelle in Einklang bringen? ⚖️
Aus diesem Dialog soll Technik entstehen, die für die Menschen da ist, eine Technik, die das Recht auf informationelle Selbstbestimmung gewährleistet. 🛡️
Spannend ist die Frage, wie sich unsere Erkenntnisse aus PRETINA auch auf andere Bereiche des digitalen Lebens übertragen lassen, um eine Big Data Analytics for Good zu realisieren. 🌍✨
