-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathcamp2023-57087-deu-Lesung_Digitale_Muendigkeit_opus.srt
1592 lines (1194 loc) · 52.4 KB
/
camp2023-57087-deu-Lesung_Digitale_Muendigkeit_opus.srt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1
00:00:00,000 --> 00:00:29,000
[Musik]
2
00:00:30,000 --> 00:00:37,640
Der nächste Talk hat den Titel "Digitale Mündigkeit" und ist von Lena, die sich mit
3
00:00:37,640 --> 00:00:42,800
digitaler Mündigkeit beschäftigt und Technikpaternalismus. Und was das ist,
4
00:00:42,800 --> 00:00:47,000
wird sie selber erzählen. Hallo.
5
00:00:47,000 --> 00:00:58,000
Ja, danke. Hi. So viel erzählen wollte ich gar nicht, weil bei der letzten Lesung, die ich gemacht habe,
6
00:00:58,000 --> 00:01:02,000
habe ich dann ganz viel geredet und dann hinterher dasselbe nochmal vorgelesen.
7
00:01:02,000 --> 00:01:08,000
Und deswegen dachte ich, ich fange einfach erstmal an mit Lesen.
8
00:01:08,000 --> 00:01:16,000
Ich habe im Mai nicht mein erstes Buch allgemein herausgebracht, denn diese
9
00:01:16,000 --> 00:01:21,000
kurz und mündig büchlein da hinten sind ja auch Bücher und davon habe ich schon ein paar geschrieben,
10
00:01:21,000 --> 00:01:29,000
aber das erste so richtige große. Und das ist ganz schön aufregend, so ein Buch geschrieben zu haben.
11
00:01:29,000 --> 00:01:35,000
Und vor allen Dingen ist es schön, wenn man später nochmal drin liest und weiterhin zufrieden mit dem,
12
00:01:35,000 --> 00:01:41,000
was da drin steht. Und es macht mir tatsächlich auch Spaß, da drin zu lesen. Und deswegen dachte ich,
13
00:01:41,000 --> 00:01:48,000
ich lese euch mal ein bisschen was daraus vor und freue mich natürlich, wenn es euch neugierig macht,
14
00:01:48,000 --> 00:01:56,000
mehr zu hören. Ja, und ich fange einfach mal an, oder? Aber erst trinke ich einen Schluck.
15
00:01:56,000 --> 00:01:58,000
Trinken nicht vergessen.
16
00:01:58,000 --> 00:02:14,000
Digital hat Charme. Der Traum vom perfekten DJ.
17
00:02:14,000 --> 00:02:21,000
In jungen Jahren wünschte ich mir einen persönlichen DJ. Eine Person, die mich unaufdringlich begleitet
18
00:02:21,000 --> 00:02:28,000
und mir in jedem Moment die Musik auflegt, die ich gerade hören möchte, die zu meinem Gemütszustand passt
19
00:02:28,000 --> 00:02:34,000
oder einen angestrebten Gemütszustand hervorruft. Diese Person müsste sich so gut mit meinem Musikgeschmack
20
00:02:34,000 --> 00:02:41,000
und mit meinen Stimmungen auskennen, dass sie sogar besser wüsste als ich, was ich gerade hören möchte.
21
00:02:41,000 --> 00:02:48,000
Dafür würde ich mich diese Person eine Zeit beobachten und mein Verhalten zu studieren.
22
00:02:48,000 --> 00:02:54,000
Es ließe sich nicht vermeiden, dass sie sich nicht nur über meinen Musikgeschmack, sondern über mein
23
00:02:54,000 --> 00:03:01,000
gesamtes Leben einen guten Überblick bekäme und mich vielleicht sogar besser kennenlernte als ich mich selbst.
24
00:03:01,000 --> 00:03:07,000
Diese Informationen sollte sie dann nutzen, um mir die passende Musik aufzulegen, noch ehe ich
25
00:03:07,000 --> 00:03:13,000
darüber nachdenken konnte, welche Musik eigentlich passen würde. Mein Beitrag würde sich darauf
26
00:03:13,000 --> 00:03:19,000
beschränken, festzustellen, dass es tatsächlich gerade die bestmögliche Musikauswahl wäre und
27
00:03:19,000 --> 00:03:26,000
meinem DJ anerkennend zuzunecken. Selbstverständlich wollte ich dazu keinen Menschen versklaven.
28
00:03:26,000 --> 00:03:32,000
Bezahlen kann man so einen Vollzeitbegleitservice auch nicht und abgesehen davon, dass ich es damals
29
00:03:32,000 --> 00:03:37,000
schon ablehnte, mich überwachen zu lassen und mir das Gefühl nicht gefallen hätte, ständig überall hin
30
00:03:37,000 --> 00:03:45,000
begleitet zu werden. Es blieb bei einer wilden Fantasie, auch deshalb, weil es recht unrealistisch ist,
31
00:03:45,000 --> 00:03:51,000
dass der eigene Musikgeschmack derart präzise erfasst werden könnte. Oder nicht?
32
00:03:51,000 --> 00:03:57,000
Als ich Mitte der Nullerjahre auf die Musikempfehlungsseite Last FM stieß, legte ich mir sofort einen
33
00:03:57,000 --> 00:04:03,000
Account an. Last FM zeichnete von da an die Musik auf, die ich am Rechner hörte und empfahl mir
34
00:04:03,000 --> 00:04:10,000
ähnliche Interpretinnen. Ich konnte mir sogar ansehen, was meine Freunde gerade hörten, Musik
35
00:04:10,000 --> 00:04:17,000
kommentieren und sogar meinen OK Player, damals war MP3 noch nicht frei und deswegen musste man
36
00:04:17,000 --> 00:04:24,000
natürlich für freie Formate das OK Format verwenden, an das System anschließen. Es erstellte mir
37
00:04:24,000 --> 00:04:28,000
eine Statistik meiner Lieblingslieder und Bands, verglich meinen Musikgeschmack mit dem meiner
38
00:04:28,000 --> 00:04:33,000
Freunde und stellte mir Menschen vor, die einen sehr ähnlichen Musikgeschmack hatten wie ich.
39
00:04:33,000 --> 00:04:39,000
Dies entsprach in weiten Teilen meinen Vorstellungen. Eine Software hat den Vorteil, dass man sie nicht
40
00:04:39,000 --> 00:04:45,000
versklaven muss, damit sie für einen rund um die Uhr arbeitet. Man muss allerdings andere Dinge in
41
00:04:45,000 --> 00:04:51,000
Kauf nehmen. Zum Beispiel gibt es keine Funktion, um mein Profil vor der Öffentlichkeit zu schützen.
42
00:04:51,000 --> 00:04:57,000
Die Geheimhaltung meines Nicknames war eigentlich die einzige Möglichkeit, meine Privatsphäre zu
43
00:04:57,000 --> 00:05:03,000
schützen. Doch den musste ich ja bekannt geben, wenn ich mit Freunden Musikempfehlungen tauschen
44
00:05:03,000 --> 00:05:10,000
wollte. Wer meinen Benutzernamen kannte, konnte sehr viel über mich herausfinden. Außerdem band das mich
45
00:05:10,000 --> 00:05:17,000
an den Computer. Einer meiner Lieblingsinterpreten rutschte auf der Skala weit nach unten, weil ich
46
00:05:17,000 --> 00:05:22,000
seine Musik noch häufig über die Schallplatte oder CD hörte, die eben nicht an das System angeschlossen
47
00:05:22,000 --> 00:05:28,000
sind. Andere Interpretinnen, die ich gar nicht besonders mochte, die sich aber als Hintergrundmusik
48
00:05:28,000 --> 00:05:34,000
gut eigneten und die ich gerne zum Arbeiten oder Aufräumen hörte, schnellten im Ranking nach oben.
49
00:05:34,000 --> 00:05:41,000
Das System konnte nicht wahrnehmen, mit welcher Intensität ich ein Stück hörte. Ob ich nebenbei
50
00:05:41,000 --> 00:05:48,000
telefonierte oder mit geschlossenen Augen jede einzelne Note verfolgte, wurde nicht erfasst.
51
00:05:48,000 --> 00:05:54,000
Das führte dazu, dass ich begann, mein Musikhörverhalten so zu verändern, dass die angezeigte
52
00:05:54,000 --> 00:06:01,000
Rangliste eher dem entsprach, wie ich selbst meinen Musikgeschmack einschätzte. So beeinflusste mich
53
00:06:01,000 --> 00:06:10,000
die Software in dem, was ich hörte und verursachte eine Art Rückkopplung. Was dem Programm zu dem von
54
00:06:10,000 --> 00:06:17,000
mir fantasierten leibhaftigen DJ noch fehlte, war die Einschätzung meines Gemütszustandes. Es konnte
55
00:06:17,000 --> 00:06:23,000
mir nicht sagen, welche Musik jetzt im Moment zu mir passt, sondern nur, welche mir allgemein
56
00:06:23,000 --> 00:06:30,000
gefallen könnte. Doch von der Berechnung des Gemütszustandes durch Software sind wir heute gar nicht
57
00:06:30,000 --> 00:06:37,000
mehr weit entfernt. Es ist nur noch eine Frage der Zeit, bis es diesen persönlichen DJ, der meine
58
00:06:37,000 --> 00:06:44,000
Stimmungen erkennen und anhand dieser bestimmen kann, was ich gerade hören möchte als App gibt.
59
00:06:44,000 --> 00:06:49,000
Vielleicht sogar mit all den Dingen, die ich mir damals gewünscht habe. Nicht mal als Luxusartikel,
60
00:06:49,000 --> 00:06:55,000
sondern für alle Menschen bezahlbar. Leider müssen wir befürchten, dass bezahlbar in einer Währung
61
00:06:55,000 --> 00:07:02,000
passieren wird, die wir alle haben und die uns kein Geld, sondern unsere Privatsphäre kostet.
62
00:07:02,000 --> 00:07:12,000
Denn es gibt einen wichtigen Unterschied zum persönlichen DJ. Er wäre nur ein Mensch, der mich
63
00:07:12,000 --> 00:07:17,000
beobachtet und sich ständig in meiner Umgebung aufhält. Ich würde diese Person ebenfalls kennenlernen
64
00:07:17,000 --> 00:07:22,000
und es bliebe ihr keine Zeit, etwas mit ihrem Wissen über mich zu machen, da sie ja immer damit
65
00:07:22,000 --> 00:07:27,000
beschäftigt wäre, mich zu beschaffen. Ein Unternehmen, das mir eine Software anbietet, die die
66
00:07:27,000 --> 00:07:33,000
gleiche Arbeit leistet, wird sich das genauso teuer bezahlen lassen wie ein persönlicher DJ nur eben
67
00:07:33,000 --> 00:07:39,000
in einer anderen Währung. Doch hierbei handelt es sich um mehrere Personen, die ich nicht kenne und
68
00:07:39,000 --> 00:07:46,000
nicht einschätzen kann. Würde ich den Dienst dennoch in Anspruch nehmen, wenn, wann passiert es schon
69
00:07:46,000 --> 00:07:52,000
mal, dass man eine derart unrealistische Jugendwunschstraum-Utopie so einfach erfüllt bekommt?
70
00:07:52,000 --> 00:07:58,000
Mein Computer kennt mich besser, als ich mich selbst kenne, denn er beobachtet mich dauerhaft und
71
00:07:58,000 --> 00:08:04,000
zeichnet alles unverfälscht auf. Oder vielleicht doch nicht? Anscheinend könnte es auch hier zu
72
00:08:04,000 --> 00:08:10,000
Fehlern kommen, denn ich habe ja schon bei meinem Experiment mit Last.fm bemerkt, dass ich mein
73
00:08:10,000 --> 00:08:17,000
Verhalten dem Programm bewusst anpasste, um Fehler auszugleichen. Wie oft ist das wohl unbewusst
74
00:08:17,000 --> 00:08:23,000
passiert? Und wie sehr würde ich mich einer Firma ausliefern, die derart gut über meinen Gemütszustand
75
00:08:23,000 --> 00:08:30,000
informiert ist? Würde ich ihr damit nicht auch die Macht geben, meine Stimmung zu manipulieren? Was,
76
00:08:30,000 --> 00:08:37,000
wenn der DJ auf einmal anfängt, mir meine mühsam erarbeitete melancholische Stimmung zu verderben,
77
00:08:37,000 --> 00:08:42,000
indem er mir statt "A Whiter Shade of Pale" mit "If You Want to Sing Out, Sing Out" das Lied
78
00:08:42,000 --> 00:08:49,000
auftischt, dem keine meiner schlechten Launen standhält? Im besten Fall könnte die Software
79
00:08:49,000 --> 00:08:56,000
entscheiden, ob ich meine Laune gerade konserviere oder ändere. Im schlimmsten Fall würde die
80
00:08:56,000 --> 00:09:01,000
Software das nicht anhand meiner Wünsche ermitteln, sondern anhand der Wünsche der Person, die meinen
81
00:09:01,000 --> 00:09:07,000
DJ-Dienst betreibt. Beide Fälle finde ich beunruhigend. Ich finde es beunruhigend, wenn ein Stück
82
00:09:07,000 --> 00:09:12,000
Technik besser über mich Bescheid weiß, als ich selbst oder meine engsten Freundinnen und Freunde.
83
00:09:12,000 --> 00:09:17,000
Ich finde es erst recht beunruhigend, wenn ich zu bequem werde, für mich selbst wahrzunehmen, welche
84
00:09:17,000 --> 00:09:23,000
Gefühle ich habe. Am beunruhigendsten finde ich es aber, wenn ich die Macht über meine Launen zu
85
00:09:23,000 --> 00:09:28,000
bestimmen, potentiell an Dritte abgebe, von denen ich nicht mehr weiß, wer das eigentlich ist,
86
00:09:28,000 --> 00:09:36,000
geschweige denn, was ihr Anliegen ist. Am allerbeunruhigendsten finde ich allerdings, wie wenige
87
00:09:36,000 --> 00:09:42,000
Menschen sich derartige Fragen stellen, bevor sie einen solchen Dienst nutzen. Welche Auswirkungen auf
88
00:09:42,000 --> 00:09:50,000
die Gesellschaft würde es haben, wenn wir alle einen solchen DJ-Dienst nutzen würden? Leider bleibt
89
00:09:50,000 --> 00:09:56,000
es nicht bei den Diensten, denen man sich freiwillig und unreflektiert unterwirft, weil sie einen
90
00:09:56,000 --> 00:10:02,000
albernen Wunschraum erfüllen. Immer mehr Anwendungen sind für uns gar nicht mehr vermeidbar, bzw. ein
91
00:10:02,000 --> 00:10:08,000
Verzicht darauf hat für uns ernsthafte Konsequenzen. Wenn ich dem Staat nicht meine Fingerabdrücke anvertrauen
92
00:10:08,000 --> 00:10:13,000
möchte, weil er entgegen aller ursprünglichen Beteuerungen mein biometrisches Bild nicht so gut geschützt
93
00:10:13,000 --> 00:10:20,000
und stattdessen an Staatsverfolgungsbehörden weitergegeben hat, dann kann ich den Schengenraum nicht
94
00:10:20,000 --> 00:10:25,000
mehr verlassen. Wenn ich anonym Bahn fahren will, muss ich mittlerweile viele Unannehmlichkeiten auf mich
95
00:10:25,000 --> 00:10:32,000
nehmen und in der Regel mehr Geld bezahlen. Wenn ich mit Freundinnen kommunizieren will, werde ich genötigt
96
00:10:32,000 --> 00:10:38,000
WhatsApp zu nutzen und wenn ich morgens ein warmes Büro vorfinden möchte, muss ich mir eine Smart-Home-App
97
00:10:38,000 --> 00:10:44,000
auf dem Handy installieren, mit der ich die Heizung bequem steuern kann. Ich kann nicht mal bei Klobetrotter
98
00:10:44,000 --> 00:10:50,000
im Laden ein paar Schuhe bestellen, ohne dass in meinem Namen ein Benutzer-Account bei deren Online-Shop
99
00:10:50,000 --> 00:10:56,000
erstellt wird, für den ich meine Postadresse nebst weiteren Informationen angeben muss. Viele Banken
100
00:10:56,000 --> 00:11:01,000
verlangen mittlerweile für Kreditkartenzahlungen, dass man ihre App installiert, die es natürlich auch
101
00:11:01,000 --> 00:11:08,000
nur im Google Play Store gibt, für die man die völlig inakzeptable Google-AGB akzeptieren muss.
102
00:11:08,000 --> 00:11:15,000
Besonders unausweichlich ist die Zwangsdigitalisierung im medizinischen Sektor. Ohne die elektronische
103
00:11:15,000 --> 00:11:20,000
Gesundheitskarte erhalte ich keine medizinische Versorgung und wenn ich meiner Krankenkasse einen analogen
104
00:11:20,000 --> 00:11:27,000
Brief schicke, dann adressiere ich den ans Scan-Zentrum, wo er, Sie ahnen es schon, digitalisiert wird,
105
00:11:27,000 --> 00:11:35,000
bevor er an meine Sachbearbeiterin weitergeleitet wird. Ich liebe Technik. Ich liebe mein Smartphone
106
00:11:35,000 --> 00:11:41,000
und meinen Computer. Ich liebe die vielen Möglichkeiten, die sich daraus für Demokratie und für die
107
00:11:41,000 --> 00:11:46,000
menschliche Kommunikation ergeben. Ich finde es herrlich, dass man für einen alten gebrauchten
108
00:11:46,000 --> 00:11:51,000
Staubsauger online eine Betriebsanleitung finden kann und dass einsame Menschen im Netz Gleichgesinnte
109
00:11:51,000 --> 00:11:57,000
finden. Und ich bin überaus glücklich darüber, dass kranke Menschen durch digitale Technik besser mit
110
00:11:57,000 --> 00:12:03,000
ihren Krankheiten umgehen und sogar die Heilungschancen verbessern können. Gerade weil ich das große
111
00:12:03,000 --> 00:12:08,000
Potential sehe, das in der Digitalisierung steckt, halte ich es für notwendig, sich kritisch damit
112
00:12:08,000 --> 00:12:15,000
auseinanderzusitzen, wohin uns die technische Entwicklung führen soll. Es gibt bis heute kein
113
00:12:15,000 --> 00:12:20,000
allgemeingültiges ethisches Gerüst, nachdem wir die Richtung, die die Technikentwicklung nehmen soll,
114
00:12:20,000 --> 00:12:26,000
ausrichten können. So verfolgen die Internetkonzerne zum Beispiel ganz andere Ziele als die Menschen,
115
00:12:26,000 --> 00:12:32,000
die früher Mailboxen betrieben haben und heute freie Netze fordern. Ich glaube, hier sitzen ein paar im
116
00:12:32,000 --> 00:12:42,000
Zelt. Jetzt habe ich mich selber rausgebracht. Wo sind denn jetzt die freien Netze?
117
00:12:42,000 --> 00:12:57,000
Da. Manchmal ist es ja wirklich. Regierungen und mächtige politische Kräfte nutzen das Netz für die
118
00:12:57,000 --> 00:13:03,000
Manipulation von Wahlen und politischen Entscheidungen. Siehe zum Beispiel Brexit. Anderen wiederum
119
00:13:03,000 --> 00:13:07,000
ermöglicht das Internet am Leben teilzunehmen. Menschen mit Behinderungen zum Beispiel. Oder sich
120
00:13:07,000 --> 00:13:13,000
weltweit Freunde zu suchen. Darin steckt die Chance im Sinne von Berthold Brechtz und Andy Warholz,
121
00:13:13,000 --> 00:13:20,000
dass jeder und jeder seinen persönlichen Raum bekommt, sich zu verwirklichen. Gleichzeitig aber
122
00:13:20,000 --> 00:13:25,000
stellen eben Konzerne diesen Raum zur Verfügung und nutzen ihn für ihre Geschäftsinteressen aus,
123
00:13:25,000 --> 00:13:31,000
indem sie Regeln diktieren und zentralisieren. Damit drohen sie, andere Pflanzen unseres
124
00:13:31,000 --> 00:13:37,000
Gemeinschaftslebens zu verdrängen. Gerade weil ich die technische Entwicklung begrüße und mir viel
125
00:13:37,000 --> 00:13:43,000
davon erhoffe, bin ich ihr gegenüber besonders kritisch. Gerade weil ich es als Privileg empfinde,
126
00:13:43,000 --> 00:13:49,000
in genau dieser Umbruchszeit zu leben, sehe ich mich in der Verantwortung, meinen Teil dazu beizutragen,
127
00:13:49,000 --> 00:13:58,000
dass sie sich in eine wünschenswerte Richtung entwickelt. Kommen wir zur Frage, wie wir mit den
128
00:13:58,000 --> 00:14:04,000
vielen Möglichkeiten, die uns die digitale vernetzte Kommunikation bietet, eigentlich umgehen wollen.
129
00:14:04,000 --> 00:14:09,000
Wenn daraus etwas werden soll, was den Menschen gut tut, was ihnen zur Demokratie und einer friedlichen
130
00:14:09,000 --> 00:14:14,000
Welt verhilft, dann sollten wir uns an unseren Umgang damit einen gewissen Anspruch stellen.
131
00:14:14,000 --> 00:14:20,000
Ein mündiger Umgang mit Technik, der sie weder verteufelt noch blind bejubelt, würde diesem Anliegen
132
00:14:20,000 --> 00:14:26,000
entsprechen. Mündigkeit nicht nur im Sinne von mature, weil uns jemand gesagt hat, dass wir das jetzt
133
00:14:26,000 --> 00:14:33,000
dürfen, weil juristisch und so, sondern auch im Sinne von responsible, weil wir bereit sind,
134
00:14:33,000 --> 00:14:40,000
Verantwortung für das zu tragen, was wir da tun. Digitale Mündigkeit ist das Bewusstsein, dass es ein
135
00:14:40,000 --> 00:14:46,000
Problem mit der Technik, die man benutzt, geben könnte. Es ist die Bereitschaft, Verantwortung für das
136
00:14:46,000 --> 00:14:52,000
eigene Handeln zu übernehmen, in Bezug auf die eigenen Interessen, aber auch in Bezug auf die
137
00:14:52,000 --> 00:14:58,000
Interessen anderer Menschen und auch in Bezug auf das Interesse der Menschen als Gesamtgruppe.
138
00:14:58,000 --> 00:15:02,000
So.
139
00:15:02,000 --> 00:15:16,000
Ich blättere mal ein bisschen vor, muss ja nicht alles aus dem Anfang sein.
140
00:15:19,000 --> 00:15:29,000
Ich habe ein recht großes KI-Kapitel. KI, wir wissen, komplexe Imitationen auf Englisch, Advanced Imitation,
141
00:15:29,000 --> 00:15:39,000
also AI, aber ich bleib mal bei KI und ich, ja wir reden so viel über KI, ich bin da mal so ein bisschen
142
00:15:39,000 --> 00:15:44,000
nach vorne gesprungen in das Kapitel, ich bin so froh, dass ich kein falsch positiv bin.
143
00:15:46,000 --> 00:15:52,000
Häufig geht es bei der KI um Zuordnung oder Vorhersagen. Ist jemand kreditwürdig? Wird jemand
144
00:15:52,000 --> 00:15:57,000
einen Verbrechen begehen? Ist eine Person empfänglich für Werbung meines Produkts? Soll ich eine Person
145
00:15:57,000 --> 00:16:04,000
einstellen? Befindet sich auf dem Foto ein Auto? Könnte die Person gleich einen Terroranschlag verüben?
146
00:16:04,000 --> 00:16:10,000
Der offensichtliche Wert, den man zunächst ins Auge fasst, ist, wie oft der Algorithmus Recht hat.
147
00:16:10,000 --> 00:16:18,000
Also wie viele Terroristen hat er tatsächlich erkannt? 100%? Na fantastisch, dann können wir ja nach Hause gehen.
148
00:16:18,000 --> 00:16:25,000
Leider nicht, denn neben dem Wert der korrekten Zuordnung, dem true positive, gibt es einen weiteren
149
00:16:25,000 --> 00:16:33,000
sehr relevanten Wert, das falsch positiv, also die falschlicherweise als Terroristen markierten Menschen,
150
00:16:33,000 --> 00:16:39,000
die aber ganz und gar keine Terroristen sind. Wenn eine KI die Hälfte aller Menschen als Terroristen
151
00:16:39,000 --> 00:16:46,000
einstuft, ist es nicht verwunderlich, wenn darunter auch 100% alle Terroristen sind. Beim falsch
152
00:16:46,000 --> 00:16:53,000
positiv kommt erschwerend hinzu, dass es für die Betroffenen sehr weitreichende Folgen haben kann und
153
00:16:53,000 --> 00:16:59,000
dass schon ein sehr kleiner Prozentsatz ein sehr großes Problem darstellt. Im Pilotprojekt zur
154
00:16:59,000 --> 00:17:06,000
Gesichtserkennung am Berliner Bahnhof Südkreuz wurde mit hervorragenden Ergebnissen geprahlt.
155
00:17:06,000 --> 00:17:16,000
70 bis 80% true positives wurden gemessen und stolz verkündet. Der Wert der false positives
156
00:17:16,000 --> 00:17:22,000
blieb zunächst vage mit unter einem Prozent, was sich doch irgendwie nach richtig wenig anfühlt.
157
00:17:22,000 --> 00:17:28,000
Das Ganze wurde als Erfolg gefeiert. Doch wer nachrechnet und weiß, dass am Südkreuz täglich
158
00:17:28,000 --> 00:17:34,000
ca. 100.000 Menschen unterwegs sind, stellt fest, pro Tag würden bei dieser kleinen Rate bis zu
159
00:17:34,000 --> 00:17:41,000
1.000 Menschen falsch zugeordnet. Selbst beim später verkündeten Wert von 0,1% wären das noch
160
00:17:41,000 --> 00:17:49,000
immer 100 falsche Kriminelle am Tag, 36.500 im Jahr. Gemessen am Ziel der Übung, nämlich Kriminelle
161
00:17:49,000 --> 00:17:57,000
zu erkennen, ist das eine viel zu hohe Zahl. Und das Problem ist real. Es sammeln sich immer mehr
162
00:17:57,000 --> 00:18:04,000
Beispiele für solche Fehler. In Georgia musste im Dezember 22 ein Mann fast eine Woche im Gefängnis
163
00:18:04,000 --> 00:18:08,000
verbringen, ehe sich herausstellte, dass ihn die Gesichtserkennungssoftware fälschlicherweise für
164
00:18:08,000 --> 00:18:14,000
einen gesuchten Dieb hielt. Das Beispiel ist besonders pikant, weil der Mann schwarz ist und die
165
00:18:14,000 --> 00:18:20,000
Gesichtserkennungssoftware hier rassistischerweise besonders fehleranfällig ist, weil sie vornehmlich
166
00:18:20,000 --> 00:18:26,000
an Weißen trainiert wird. Aber auch wenn die Gesichtserkennung korrekt arbeitet, wird sie in
167
00:18:26,000 --> 00:18:32,000
immer problematischeren Situationen eingesetzt. Stellen Sie sich vor, Sie wollen Ihr Kind zu einem
168
00:18:32,000 --> 00:18:39,000
Schulausflug ins Musical begleiten und werden als einzige Mutter nicht reingelassen. Warum? Weil Sie
169
00:18:39,000 --> 00:18:46,000
für eine Kanzlei arbeiten, die in einen Rechtsstaat gegen den Betreiber des Musicals involviert ist.
170
00:18:46,000 --> 00:18:53,000
Dies geschah ebenfalls Ende 22 in den USA, diesmal in New York. Während Gesichtserkennung immer
171
00:18:53,000 --> 00:18:59,000
häufiger, sehr willkürlich und fehlerhaft eingesetzt wird, ist Ihr Nutzen äußerst überschaubar.
172
00:18:59,000 --> 00:19:08,000
Angenommen, es laufen pro Monat 10 Kriminelle über den Bahnhof Südkreuz. Dann würde diese angeblich so
173
00:19:08,000 --> 00:19:14,000
erfolgreiche Software acht davon erkennen, bei 80 Prozent True Positives. Und gleichzeitig würde sie
174
00:19:14,000 --> 00:19:21,000
3.000 Unschuldige als kriminell bezichtigen, 0,1 Prozent False Positives, und ihnen entsprechend die
175
00:19:21,000 --> 00:19:28,000
Polizei auf die Fersen jagen. Unberechtigte Befragung und zu spät kommen bei der Arbeit inklusive,
176
00:19:28,000 --> 00:19:34,000
während die Polizei versucht, unter den gut 3.000 Menschen die acht Kriminellen zu finden.
177
00:19:34,000 --> 00:19:41,000
Mag sein, dass Sie das anders sehen, aber ich betrachte das nicht als erfolgreichen Test. Zumal sogar
178
00:19:41,000 --> 00:19:47,000
diese denkbar schlechten Ergebnisse im Verdacht stehen, noch geschönt zu sein. Stellen Sie sich diese
179
00:19:47,000 --> 00:19:53,000
Rate an Falschpositiven mal bei einem Feueralarm in Ihrem Büro vor. Wenn täglich zehnmal der
180
00:19:53,000 --> 00:19:58,000
Feueralarm losgeht, werden Sie spätestens nach drei Tagen nicht mehr aufstehen und hinauseilen, wenn es
181
00:19:58,000 --> 00:20:04,000
wieder klingelt. Dumm nur, wenn es dann wirklich mal brennt und keiner mehr mit einem True Positiv
182
00:20:04,000 --> 00:20:11,000
rechnet. Es gibt übrigens auch True Negative und False Negative. Auch hier möchte man lieber nicht
183
00:20:11,000 --> 00:20:16,000
zu den Falschen gehören, denn hier geht es darum, fälschlicherweise aussortiert worden zu sein.
184
00:20:16,000 --> 00:20:21,000
Beispielsweise bei einer Arbeitsstelle, für die man eigentlich sehr wohl in Frage käme, aber
185
00:20:21,000 --> 00:20:27,000
versehentlich falsch bewertet wurde. Oder bei der Frage, ob man von der Bank einen Kredit erhält.
186
00:20:27,000 --> 00:20:33,000
Ein False Negative ist hier genauso gemein wie ein False Positiv beim Terroristen-Detektor.
187
00:20:33,000 --> 00:20:42,000
Ja, also ich versuche immer so ein bisschen, ich habe das tatsächlich durchgekämmt mit meinem
188
00:20:42,000 --> 00:20:51,000
bald, wie alt wird er? 80-jährigen Vater. Ich habe versucht, so zu schreiben, dass es also nicht
189
00:20:51,000 --> 00:21:01,000
viel Vorkenntnisse voraussetzt und trotzdem Spaß macht. Es ist also Eltern-kompatibel.
190
00:21:01,000 --> 00:21:10,000
So, jetzt habe ich leider festgestellt beim Probelesen, dass ich die paternalistische Ampel
191
00:21:10,000 --> 00:21:15,000
überspringen muss. Die wollte ich eigentlich auch mit vorlesen, weil das ist ein schönes, so eine
192
00:21:15,000 --> 00:21:20,000
Parabel. Philosophinnen machen das immer sehr gerne, dass sie irgendwelche abstrusen Beispiele
193
00:21:20,000 --> 00:21:26,000
vorstellen. Aber die überlasse ich dann mal euch, das selber zu lesen. Weil ich will lieber mal
194
00:21:26,000 --> 00:21:31,000
nochmal in den Bereich reinschnuppern, in dem es darum geht, wie sie Licht ins Dunkel der
195
00:21:31,000 --> 00:21:38,000
Black Box bringen. Die gute Nachricht ist, man kann sich aus der Entmündigung befreien.
196
00:21:38,000 --> 00:21:44,000
Das bedarf einiger Übungen und ist deshalb auch nicht ganz ohne Zeitinvestition zu erreichen.
197
00:21:44,000 --> 00:21:49,000
Doch mit der notwendigen Bereitschaft und mit Durchhaltevermögen lässt es sich durchaus in den
198
00:21:49,000 --> 00:21:55,000
Alltag integrieren. Die Größe der Schritte können Sie individuell anpassen. Ganz am Anfang steht ein
199
00:21:55,000 --> 00:22:00,000
Haltungswechsel. Indem Sie für sich in Anspruch nehmen, die Verantwortung für Ihre digitalen
200
00:22:00,000 --> 00:22:06,000
Handlungen zu tragen, haben Sie das Wichtigste schon getan. Die notwendigen Fragen werden sich
201
00:22:06,000 --> 00:22:12,000
dann von alleine aufwerfen. Hier geht es darum, wie das konkret aussehen kann.
202
00:22:12,000 --> 00:22:21,000
30 mündige Minuten. Beachten Sie, so oft es Ihnen möglich ist, die goldene 30-Mündigkeits-Minuten-Regel.
203
00:22:21,000 --> 00:22:27,000
Sie lautet, versuchen Sie ein Computerproblem immer erst mindestens 30 Minuten lang selbst zu
204
00:22:27,000 --> 00:22:33,000
lösen. Der Einsatz von Suchmaschinen ist dabei ausdrücklich erlaubt. Bitten Sie erst dann nach
205
00:22:33,000 --> 00:22:42,000
um Hilfe. Inspiriert wurde diese Regel übrigens vom Nummer 627XKCD, Technical Support Cheat Sheet.
206
00:22:42,000 --> 00:22:51,000
Ich weiß nicht, wer ihn kennt, aber wer XKCD kennt, .com/627, kann man sich durchlesen.
207
00:22:51,000 --> 00:22:58,000
Das hat gleich zwei Vorteile. Erstens, Sie üben sich, Problemen selbst zu stellen, dem
208
00:22:58,000 --> 00:23:05,000
Erforderungsgefühl zu trotzen und lernen ganz nebenbei sehr viel dazu. Zweitens, Sie sieben die
209
00:23:05,000 --> 00:23:10,000
einfach zu lösenden Probleme vorher aus. Wenn Sie damit anfangen, werden Sie überrascht sein,
210
00:23:10,000 --> 00:23:17,000
wie häufig Sie in 5-10 Minuten selbst eine Lösung finden. Sie brauchen also viel seltener Hilfe
211
00:23:17,000 --> 00:23:22,000
in Anspruch zu nehmen. Die Menschen, die Sie bei Ihren Problemen unterstützen, werden es Ihnen
212
00:23:22,000 --> 00:23:30,000
danken. Denn die können sehr gut erkennen, ob es sich um ein wirkliches Problem handelt oder ob Sie
213
00:23:30,000 --> 00:23:38,000
nur zu faul waren, selbst zu meta gären. Ich spreche da aus Erfahrung und zwar aus beiden
214
00:23:38,000 --> 00:23:45,000
Richtungen. Wenn Sie sich dann doch Hilfe holen, lassen Sie sich nicht das Gerät bzw. die Tastatur
215
00:23:45,000 --> 00:23:51,000
aus den Händen nehmen. Auch wenn Sie von Tuten und Blasen keine Ahnung haben, behalten Sie die
216
00:23:51,000 --> 00:23:57,000
Kontrolle. Lassen Sie sich bei der Bedienung Ihrer Geräte helfen, aber geben Sie sie nicht ab.
217
00:23:57,000 --> 00:24:04,000
Passwörter kennen nur Sie und wenn sie gebraucht werden, geben Sie sie ein. Lassen Sie sich erklären,
218
00:24:04,000 --> 00:24:08,000
was man mit Ihrem Gerät gerade macht und führen Sie sich vor Augen, dass es auch dann in Ihrer
219
00:24:08,000 --> 00:24:17,000
Verantwortung liegt, was damit geschieht, wenn Sie gar nicht richtig verstehen, was da gerade passiert.
220
00:24:17,000 --> 00:24:24,000
Wirkere Flex überwinden. Ist ja alles schön und gut, werden Sie jetzt vielleicht sagen, aber ich habe
221
00:24:24,000 --> 00:24:29,000
nun mal kein Informatikdiplom und kenne mich nicht ausreichend mit Computern aus. Mit diesem Gefühl
222
00:24:29,000 --> 00:24:34,000
der Überforderung sind Sie wahrlich nicht alleine. Für einen mündigen Umgang mit digitalen Geräten ist
223
00:24:34,000 --> 00:24:40,000
es aber gar nicht nötig, Informatik zu studieren. Über Medienkompetenz haben wir schon hinlänglich
224
00:24:40,000 --> 00:24:46,000
gesprochen, weiter vorne, aber arbeiten Sie mit den Fähigkeiten, die Sie haben und eignen Sie
225
00:24:46,000 --> 00:24:52,000
sich Stück für Stück die an, die Sie brauchen. Wir hatten das bereits davon, dass Sie auch ohne eine
226
00:24:52,000 --> 00:24:58,000
Ausbildung als Lebensmitteltechnikerin einkaufen gehen können. Oder würden Sie sich mit dem Satz,
227
00:24:58,000 --> 00:25:02,000
ich kann das eh nicht, ich habe halt keine Lebensmitteltechnik studiert, eine verschimmelte
228
00:25:02,000 --> 00:25:09,000
Orange in den Einkaufswagen legen? Eben. Sie tragen Verantwortung für das, was Sie sich und Ihren
229
00:25:09,000 --> 00:25:16,000
Liebsten in den Mund schieben, unabhängig davon, wie gut Sie sich mit dem Produkt auskennen.
230
00:25:16,000 --> 00:25:21,000
Kant würde hier von einem Mangel an Entschlossenheit sprechen, doch anstatt Ihnen weiter mit einem
231
00:25:21,000 --> 00:25:27,000
erhobenen Zeigefinger zu kommen, möchte ich Ihnen lieber etwas von Ratten erzählen. Von zwei ganz
232
00:25:27,000 --> 00:25:33,000
speziellen Ratten, um genau zu sein. Beide sind animiert und stammen aus dem Disneyfilm Ratatouille.
233
00:25:33,000 --> 00:25:40,000
Remy und Emil sind Brüder. Der erste ein Feinschmecker, der andere ein Allesfresser. Als Emil sich mal wieder
234
00:25:40,000 --> 00:25:46,000
eine undefinierbare Ekelhaftigkeit in den Mund schiebt, fragt Remy, wie er das fressen kann.
235
00:25:46,000 --> 00:25:56,000
Emils lapidare Antwort, wenn man den Würgereflex erstmal überwunden hat, geht's. Solch einen Würgereflex
236
00:25:56,000 --> 00:26:04,000
kennen wir auch bei Computern. Um das zu verstehen, müsste ich mich jetzt erstmal schlau machen und
237
00:26:04,000 --> 00:26:11,000
eindecken, dafür habe ich gerade echt nicht den Nerv. So spucken wir viele Computerverständnisfragen
238
00:26:11,000 --> 00:26:16,000
wieder aus, noch bevor wir uns wirklich auf sie eingelassen haben. Und das geht nicht nur denen so,
239
00:26:16,000 --> 00:26:23,000
die sich kaum mit Computern auskennen. Diesen Würgereflex haben fast alle, die mit Computern zu tun
240
00:26:23,000 --> 00:26:30,000
haben, nur die einen haben gelernt, sich davon nicht abhalten zu lassen. Und auch hier gilt, wenn man den
241
00:26:30,000 --> 00:26:36,000
Würgereflex erstmal überwunden hat, ist das gar nicht mehr so schlimm. Es ist kein Wunder, dass wir uns
242
00:26:36,000 --> 00:26:43,000
nur ungern auf etwas einlassen, von dem wir gefühlt vielleicht 5% verstehen. Aber daran ändert auch ein
243
00:26:43,000 --> 00:26:49,000
Informatikstudium nichts. Das führt höchstens dazu, dass sie danach gefühlt 40% verstehen. Wer mit
244
00:26:49,000 --> 00:26:54,000
Computern arbeitet, wird nicht umhin kommen zu akzeptieren, dass einem stets ein bedeutender Anteil der
245
00:26:54,000 --> 00:27:01,000
Sache unklar ist. Diese Einsicht ist einer der wichtigsten Unterschiede zwischen Computermuggeln und
246
00:27:01,000 --> 00:27:08,000
Computerzauberern. Erstere lassen sich von den vielen Unbekannten abschrecken und verunsichern. Zweitere
247
00:27:08,000 --> 00:27:13,000
suchen im Wust der Unklarheiten nach dem, was sie kennen und brauchen und halten sich daran fest und
248
00:27:13,000 --> 00:27:19,000
ignorieren den Rest. Spucken Sie die Sache also nicht gleich wieder aus, wenn Sie sie nicht verstehen.
249
00:27:19,000 --> 00:27:23,000
Nehmen Sie den Würgereiz zur Kenntnis, wenn er auftaucht, begrüßen Sie ihn und dann stellen Sie ihn
250
00:27:23,000 --> 00:27:28,000
erstmal beiseite. Nach 30 Minuten können Sie ihn ja wieder rausholen, wenn er dann überhaupt noch