Nr. 203 - Schützt uns KI oder manipuliert sie unser Leben?
Shownotes
KI – Freund oder Manipulator? Künstliche Intelligenz ist aus unserem Leben nicht mehr wegzudenken. Doch während sie in Medizin, Bildung und Umweltschutz echte Fortschritte ermöglicht, sorgt sie gleichzeitig für Risiken wie Fake News, Deepfakes oder unfaire Bewerbungsprozesse.
Highlights der Episode:
- Warum KI längst fester Bestandteil unseres Alltags ist (190 Mio. ChatGPT-Nutzer täglich).
- Wie Deepfakes und Fake News unser Vertrauen gefährden.
- Unterschiedliche Sichtweisen: Deutsche setzen auf Präzision, Amerikaner auf Fairness.
- Chancen in Medizin, Umweltschutz, Verkehr und Bildung.
- Risiken: Abhängigkeit, Kontrollverlust und unfaire Entscheidungen durch Algorithmen.
- Warum es klare Regeln und ein kritisches Bewusstsein im Umgang mit KI braucht.
Podcast-Host-Bio: Matti Lindman ist Podcaster und Host dieser KI-Serie. Er spricht über Chancen, Risiken und gesellschaftliche Auswirkungen neuer Technologien.
Kapitelmarken: 00:00 – Schützt oder manipuliert KI? 03:16 – Gesellschaftliche Sicherheit 08:21 – Fake News, Deepfakes & Missbrauchsgefahr 10:30 – Präzision vs. Fairness: Unterschiede zwischen Deutschland und USA 12:04 – Positive Beispiele: Medizin, Umweltschutz, Bildung 14:00 – Risiken: Abhängigkeit & Kontrollverlust
künstlicheintelligenz #gesellschaft #zukunft
Transkript anzeigen
00:00:06:
00:00:26: Schützt uns KI oder manipuliert sie uns längst im Leben? Von Fake News bis Jobbewerbungen, wo uns die künstliche Intelligenz Sicherheit bringt und wo sie uns gegebenenfalls schon täuscht? Let's go!
00:00:45: Ja hallo ihr lieben grüßt euch herzlich willkommen zu einer neuen folge hier klingt es oder hört es wahrscheinlich direkt an meine stimme ich musste die nächste aufnahme leider etwas verschieben denn meine stimme ist etwas belegt und das klang die letzten tage noch schrecklicher als heute aber ich dachte nein noch länger sollte ich das nicht aufschieben natürlich in erster linie für euch für die andere seite natürlich auch für einen algorithmus aber heute kommt der teil 3 der k i serie Und wir wollen uns heute schauen, anschauen, was ist eigentlich mit der KI und wie manipulierbar ist sie denn überhaupt? Was bedeutet Sicherheit? Wie genau ist das Ganze? Läuft das Ganze fair ab? Also wir gucken uns heute so ein bisschen das ganze Spektrum der Ethik ab, aber haben natürlich auch super viele positive Beispiele, wo KI schon sinnvoll eingesetzt werden kann. Und das wollen wir uns heute ein bisschen anschauen, denn stell mal vor, Fakt ist, ChatGPT Das gibt es ja noch gar nicht so lange, aber chat gbt hat mittlerweile rund 190 Millionen tägliche Nutzer weltweit. Chat gbt hat 190 Millionen tägliche Nutzer weltweit. Das ist doch das ist doch crazy. also Kai ist längst Alltag ob du das willst oder nicht. Es ist einfach schon ein fester Bestandteil geworden und aus meiner Sicht nach Buch Elektrizität. Und computer internet etc. Einfach der nächste schritt in evolution des menschen und der technik Und sie wird uns viel erleichtern sie wird viel verändern und wir müssen gucken wie wir am besten mit ihnen mit ihr umgehen und dabei sollten wir natürlich auch so moralische ethische Dinge mit betrachten denn Mal ganz im ernst wie häufig ist es dir schon passiert dass du ein video von einem politiker oder einer politikerin gesehen hast, die etwas schockierendes gesagt hat und später oder durch die Kommentare festgestellt ist, warte mal, das war ein Deepfake, das war ja gar nicht echt. oder angenommen du bewirbst dich und wirst abgelehnt, aber deine Bewerbung hat nie ein menschliches Auge gesehen. Oder hast du dich schon mal gefragt, warum du, wenn du bei Instagram oder TikTok scrollst, warum dir immer wieder die gleichen Themen von Videos vorgespielt werden?
00:03:08: Obwohl du nie gesagt hast, hallo TikTok, hallo Instagram, ich interessiere mich total für. Nein, das passiert einfach durch KI. Und deswegen darum soll es heute gehen. Wann können wir KI vertrauen und wo sollten wir lieber eher vorsichtig sein? Das lassen wir uns gemeinsam einfach mal angucken in dieser Folge. Los geht's, wie immer nach dem Intro.
00:03:34: Hmpf!
00:03:46: Was bedeutet eigentlich Sicherheit im Bezug zu KI? Darüber habe ich mir immer Gedanken gemacht und das Ganze mal so bisschen aufgesplittet und habe gesagt, Sicherheit ist unterschiedlich zu verstehen. Einmal die technische Sicherheit. Darüber haben wir in einem zweiten Teil der Serie schon viel gesprochen. Was bedeutet das überhaupt? Wie können wir KI einsetzen? Wo müssen Leitplanken setzen? Ich habe da so ein paar Stimmen von Experten mit reingeholt. Ja, was denkt denn zum Beispiel ein Sam Altman, also der CEO von Chirp Chirp T. Was bedeutet was sagt denn ein Bill Gates dazu? CEO von oder Gründer von Microsoft. So was? Wie sehen die die KI und die Entwicklung? Was sagt ein Elon Musk zum Beispiel auch dazu? Auch den habe ich moment zitiert. Wenn euch das interessiert, wenn ihr das noch nicht gesehen, dann klickt einfach nochmal hier auf den Kanal und schaut euch oder hier auf die Folge davor und schaut euch einfach den. Teil 2 der Serie an. Genau, aber deswegen funktioniert KI hier denn überhaupt zuverlässig. Das sollte durch die technische Sicherheit abgewickelt werden. Aber was mir dann viel mehr aufgefallen ist, das und deswegen musste ich auch diesen dritten Teil hier drüber noch machen, ist halt die gesellschaftliche Sicherheit. So wer garantiert mir denn, dass nicht durch KI Missbrauch betrieben wird? Wer sagt mir denn, dass nicht Fake News verbreitet werden? die schon so realistisch aussehen, dass wir es gar nicht mehr falsch von echt unterscheiden können. Was ist denn mit so Deepfakes? So was ist denn damit? So wie können wir sicherstellen, dass wir in der Gesellschaft nicht erfolglig am Rad drehen und genauso was halt in die Welt werfen? So und dadurch andere Menschen verunsichern, manipulieren, in Angst versetzen, so in Panik versetzen vielleicht auch. Daher ja so eine Kennzeichnung oder sowas gibt es ja auch schon, dass man gleich sagen kann, okay, das ist mit KI gemacht. Das ist ja schon mal ein ehrlicher Schritt, ein ehrlicher und erster Schritt. Aber wie häufig ist das gerade zu Beginn von der Zeit von Chat-JBT auch vorgekommen, dass einfach völlig falsche Daten auch weitergegeben worden sind? Ich weiß nicht, ist es dir vielleicht auch schon mal da draußen passiert?
00:06:07: könnte mir wird auch dein beispiel mal interessieren wo du tgbt oder irgendein anderes modul gefragt hast ja was du da halt gefragt hast dass wir interessieren und dann etwas anderes total rausgesponnen worden ist so vielleicht hast du da ja mal ein beispiel schreib es gerne in die kommentare mal hier wenn du bei youtube zuguckst oder halt Bei der podcast plattform deiner wahl wo du mit dabei bist und sag mal bescheid Welches beispiel du mal eingegeben hast wurde ein völliger humbug völliger völliger scheiß raus kam von von der ai Ja, und da bin ich mal gespannt was das war ich glaube das kennt jeder von uns und ich Ja, es wird ja auch schon viel dran geschraubt und es wird tagtäglich verbessert deswegen kommen ja auch so viele neue Updates mit raus, neue Module von den einzelnen KI's, die halt dafür sorgen sollen, dass das einwandfreier funktioniert. Allerdings, das was mir tatsächlich Sorgen macht, ist halt einfach die gesellschaftliche Sicherheit. Technisch mache ich mir gar nicht so viele Gedanken, also ich glaube nicht unbedingt daran, dass die KI irgendwann die Welt-Schalschaft übernimmt und uns irgendwie aufgrund von ausgerechneten Formeln oder sowas Ja garantiert oder uns aussterben lässt oder so was das glaube ich nicht Aber ich war ich mir halt gedanken mache ist einfach dass menschen selbst die k.i. dermaßen manipulieren oder die welt so dermaßen manipulieren in denen sie k.i. Nutzen Und dafür sehe ich noch aktuell bisher noch keine so richtige Lösung oder dauerhafte lösungen so etwas halt zeitnah und früh zu unterbinden klar es gibt auch schon nicht nur seit JTBT etc. sondern auch schon seit Facebook und Co. seit es die gibt oder YouTube. YouTube ist auch schon 2005 gegründet worden. Und live gegangen. Es gibt natürlich Algorithmen, die über diese Plattform laufen und gucken, dass da halt keine ethisch oder falsche Rechtsradikale oder juristisch falsche Videos hochgeladen werden.
00:08:27: auch das funktioniert halt nicht immer. So, und auch da gibt es Präventionsmaßnahmen, das funktioniert halt nicht immer oder nicht. Alles wird sofort rechtzeitig gelöscht, sondern das wird dann gesehen, dann nimmt es einer, spiegelt das oder nimmt es auf, dann teilt das einer und sonst dann kannst du dann teilweise ja gar nicht mehr das Video irgendwie da rausnehmen. Deswegen, also das bewegt mich auf jeden Fall und interessant ist auch die Deutschen, die legen eher Wert auf Genauigkeit und Sicherheit was die KI angeht und die Amerikaner die liegen eher stärkeren Fokus auf Fairness und Visionen also Relevanz für uns natürlich Präzision ist für uns Deutschen natürlich immer wichtig ganz klar aber ist ja auch ist auch wichtig nur eine korrekte KI kann Aber auch andersrum aber auch eine korrekte KI kann natürlich unfair behandeln zum Beispiel durch Wenn wir jetzt das Thema der Bewerbung zum Beispiel nehmen, zum Bewerbungsfilter einfach mal durchgehen oder vielleicht auch irgendwelche oder Gesichtserkennung, wenn Fotos sind, vielleicht auch durch voreingestellte Beispiele halt unfair agieren, indem der Arbeitgeber zum Beispiel der KI gesagt hat, hey, übernimm das bitte. dass du Männer bevorzugst, weil Frauen in dem und dem Alter ja schwanger werden und deswegen so tue die gleich aus oder irgendwie sowas. Das wäre dann halt unfair und das aber mit einer sauberen Daher also wichtig oder interessant ist
00:10:22: Also für mich ist da eigentlich interessant so ein Mittelding. So eine gerechte, aber auch eine korrekte KI. So ich glaube, das wäre mein Wunsch. Also ich würde gar nicht so wie die Amis oder die Deutschen mich da so für eins oder eins präferieren, sondern für mich wäre halt einfach eine genaue, faire KI. Das wäre glaube ich meine Lieblingsmischung. Das würde ich gut finden. Aber es gibt also Kai wird halt auch in einem immer mehr Stellen halt auch eingesetzt. Nehmen wir zum Beispiel das Thema Uni. Also ihr hat ganzen Studenten, die hier zuhören da draußen an der Uni Prüfungstools etc. Das ist halt auch schon alles Kai. Also zumindest bei den meisten Unis oder wenn ihr zur Bank geht und Kredit braucht, da ist dann auch eine Kai, die rechnet dann aus, wie die wahrscheinlich die. Die risikoausfall ist von euch na also ihr könnt den kredit gegebenenfalls nicht mehr bezahlen das macht dann fest an den daten die eingegeben worden sind da sitzt also auch kein mensch mehr und rechnet sich das aus was denn hier der der der score ist oder so vor eins bis zehn auf naska von eins bis zehn oder so das macht alles nach ai so wo wir es halt am meisten gerade sehen ist halt social media der content der wechselt sein aussehen rasant Ja, würde ich mal so ausdrücken.
00:12:00: Naja, und deswegen müssen wir halt schauen, in welche Richtung sich das bewegt und wie das weitergeht. Ich selbst habe mich auch schon ein paar Mal gegen eine Version von zum Beispiel JGBT entschieden und lieber meine eigene genommen. Oder ich habe das Ganze nochmal nachgeprüft. Das solltet ihr übrigens sowieso immer machen. Ja, also ich lasse mir alle meine Ergebnisse generell eigentlich mit Quellenangabe zeigen. Und wenn mir das irgendwie komisch vorkommt oder ich sage, nee. Das ist jetzt ein wichtiges Thema, das sollte ich auf jeden Fall nochmal überprüfen. Dann klicke ich auf diesen Link und gucke halt, wo er sich diese Information rausgeholt hat. In 99 % ist das heutzutage auch schon richtig, aber es gibt immer wieder den Fall, dass doch etwas misinterpretiert worden ist, was er im Artikel gefunden hat. Deswegen ist immer wichtig, guckt euch das auf jeden Fall an, damit ihr nicht plötzlich rausgeht mit irgendeiner falschen Meinung oder so oder irgendwas, ja, falsche Informationen in der Welt streut. Deswegen ist total wichtig, darauf zu achten, insbesondere bei Social Media. Aber es gibt halt auch positive Beispiele in der Welt, zum Beispiel der Medizin, wo KI halt präventiv eingesetzt werden kann und auch Hinweise den Ärzten gibt, was für Diagnosen noch gestellt werden können. Und nachweislich werden so ja auch schon einige Krebsfälle präventiv behandelt und dementsprechend wahrscheinlich auch Leben gerettet. Oder im Umweltschutz. Es gibt Prävention zum Waldbrandvorausschau. Also da gibt es durch die Bilder, die von dem Wald gemacht werden, kann man gut voraussagen und den Windzug und so, wie und ob sich dann Waldbrand zum Beispiel entzünden könnte. Es gibt, da gibt es auch besondere Beispiele aus, ich glaube, Singapur, das? Ja, Singapur und Wien, die ja zum Beispiel auch in öffentlichen die öffentlichen Verkehrsmittel, die Fahrpläne durch die KI optimieren und dementsprechend auch den Rush-Hour, etc. dann anpassen und das verbessern. Das auch richtig gut. ja, auch hier zum Beispiel der Podcast und das Thema Bildung. So dass es Lernplattformen gibt, die halt die Lerngeschwindigkeit eurer Individualität anpassen.
00:14:24: So, also die gucken halt, wie schnell kannst du lernen, wie gut warst du dabei, was hast du die Woche geschafft und passen dann dementsprechend den Lernstoffplan an. Total praktisch. Du wirst halt nicht überfordert, du verlierst nicht die Motivation, sondern bleibst halt dran, weil es in deinem Tempo weitergeht. Ja, oder hier eine Klassiker, auch immer mehr Haushalten Einhalt bekommt. Ist halt eine Stabilisation, nicht dass du Stabilisation, sondern du Stromnetze und eine smarte Nutzung des Stroms, also der Verteilung auch. Das ist total clever. Und ich habe mich mal ein bisschen umgehört und geguckt, was sagt ihr denn eigentlich so zu dem Thema KI? Und viele von euch nutzen halt und das auch nicht selten, sondern oft KI. haben allerdings auf der anderen Seite auch die Befürchtung von einer gewissen Abhängigkeit oder Kontrollverlust dabei. Also dann eigentlich gar nicht mehr so richtig zu wissen oder nicht mehr die Kontrolle darüber zu haben. Das passiert natürlich auch immer durch Zeitmangel dann. Du gibst hier die ganze Zeit die Sachen ein und sagst, ich brauch das noch schnell oder so. machst du Copy und Paste und packst es rein und musst los. So Kontrollverlust klar, weil du hast nicht mehr rüber geschaut. ist halt natürlich total unpraktisch oder wenn du halt selber schon nicht mehr nachdenkst, sondern die KI machen lässt, dann wirst du ja total abhängig. Wenn du dich selber mit den fachlichen Themen gar nicht mehr beschäftigst, sondern das als KI überlässt, dann machst du dich davon abhängig. Das ist halt total ungut. Also ich habe überhaupt nichts gegen die regelmäßige oder vielfache Nutzung von KI. Ganz im Gegenteil, sie erleichtert uns einiges im Leben. Ich glaube da kommt in der Zukunft noch einiges hinzu. Wir sollten halt immer schauen, dass wir selber unseren Grips noch anwerfen. Dass die KI nicht das Denken für uns abnimmt, sondern uns Barings Partner auf Augenhöhe bleibt. dass wir trotzdem noch die Kontrolle über unser Sein, unser Leben und unsere Entscheidungen haben. Und die nicht abhängig machen von unserer Assistenz. Die sollte nicht entscheiden, sondern die sollte uns...
00:16:35: Inspiration geben, Ideen geben, die wir dann halt in einen Schlachtplan umbauen. So deswegen also aus meiner Sicht, KI braucht klare Regeln, ganz klar. Und wir brauchen ein Bewusstsein, auch ganz klar aus meiner Sicht. KI immer hinterfragen, super, super wichtig. Und lass uns doch mal beim vierten Teil darauf schauen, wie es eigentlich in Jobs Bildung und der Gesellschaft speziell aussieht mit der KI und was sie da mit uns macht. Wenn dir das gefallen hat und wenn du Bock darauf hast, vierten Teil zu schauen, dann abonnier auf jeden Fall den Kanal, dann verpasst du das Video nicht und sorgst auch noch dafür durch deine Rezension durch deine fünf Sterne, damit es auch andere Leute in deinem Alter, die dieses Thema für wichtig erhalten und gerne sehen wollen, das auch als Video vorgeschlagen bekommen oder als Podcast vorgeschlagen bekommen. Deswegen teile das gerne die Folge mit den Leuten, wo du es weißt. Und ansonsten gibt die fünf Sterne. oder schreib auch gerne noch deine Fragen zu KI mit in die Kommentare. Ansonsten sehen wir uns nächste Woche zur nächsten Folge Teil 4 der KI-Serie.
Neuer Kommentar