Warum mögen wir eigentlich ChatGPT (und was sind Halluzinationen)?

Shownotes

Hallo liebe Freund*innen des Vorworts! Ihr dachtet doch nicht, dass wir uns die Gelegenheit entgehen lassen, über ChatGPT zu sprechen, oder? Gerade als Bibliothekarinnen wissen Pia und Christina, wie angenehm ein gutes Recherchetool sein kann – ob für Schule, Uni oder für die Arbeit. Dabei lauern hinter neuen Technologien oft Fallstricke, wie zum Beispiel die sogenannten Halluzinationen. Das sind Falschinformationen, die von ChatGPT ausgegeben werden. Wie man die KI trotzdem gewinnbringend für sich nutzt besprechen Pia und Christina in der heutigen Folge. Inklusive Gastauftritt von ChatGPT 4o! Und wenn alle Stricke reißen, nutzt doch einfach Brockhaus Online (kostenlos möglich für alle Mitglieder der Stadtbibliothek Innsbruck): https://brockhaus.de/ Zum Beispiel: Was ist ChatGPT? https://brockhaus.de/ecs/enzy/article/chatgpt

Habt ihr schon mal Probleme mit Halluzinationen in ChatGPT gehabt? Schreibt uns eure lustigsten Anekdoten auf post.stadtbibliothek@innsbruck.gv.at, Instagram oder Facebook.

svorwort #popcast #bibcast #gemeinsambesser #stadtstimmen

Transkript anzeigen

00:00:00: Vorsicht, der Genuss dieses Podcasts kann zu vermehrten Bibliotheksbesuchungen führen.

00:00:07: Hallo und herzlich willkommen zurück beim Vorwort, dem Podcast der Stadtbibliothek Innsbruck.

00:00:27: Ich bin ChatGBT und das sind Pia und Christina. In der heutigen Folge fragen wir uns, warum mögen wir eigentlich ChatGBT?

00:00:35: Ja und auch von mir herzliches Willkommen. Danke ChatGBT für diese schöne Einleitung. Hi Pia.

00:00:42: Hallo Christina. Ja, das war jetzt schon das neue Modell von ChatGBT, das GPT4O, wie Sie es genannt haben.

00:00:50: Das hat jetzt auch eine nicht schlechte Sprachfunktion, oder? Also noch nicht ganz überzeugend, aber es klingt schon recht gut.

00:00:58: Es war ein bisschen creepy. Und zwar ist unser heutiges Thema, um das genau zu sein, nicht nur, um wir ChatGBT mögen,

00:01:09: sondern auch uns gewisse Nachteile, und zwar einen ganz spezifischen Nachteil anzuschauen, das wären nämlich die Halluzinationen.

00:01:17: Was das ist, klären wir auch gleich. Einsteigen würden wir mit, auch wenn die meisten Leute es ganz sicher schon kennen,

00:01:26: damit was ist ChatGBT eigentlich. Kurzgefasst ist es einfach ein Chatbot des US-amerikanischen Unternehmens OpenAI.

00:01:35: GPT steht für Generative Pre-Trained Transformer und es simuliert, wie wir gerade schon gehört haben, die menschliche Kommunikation.

00:01:44: Der Durchbruch in künstlich Intelligenz existiert ja schon jetzt sehr viele Jahrzehnte fast.

00:01:52: Also das hat es mit Ellen Touring und Konsorten so innen, ich glaube, fünf oder sechzigern angeht.

00:01:58: Und wurde dann stetig weiterentwickelt. In den neunzigern gab es einen größeren Durchbruch.

00:02:02: Wenn ich mich jetzt richtig erinnere an die Recherchen, aber so im Mainstream angekommen ist es 20/22.

00:02:09: Da hat OpenAI sein Chatbot auf die Öffentlichkeit losgelassen und seitdem ist es in aller Hunde und es hat auch ein regelrechten Hype gegeben.

00:02:20: Der inzwischen ein bisschen abflattet, sieht man auch an den Zahlen.

00:02:23: In jener 23 konnte OpenAI an Subwax bis zu 100 Millionen Nutzer verzeichnen.

00:02:30: Das ist ein unglaubliches Wachstum gewesen.

00:02:32: Das war damals die am schnellsten wachsende Website und davor hat den Spitzenplatz TikTok gehabt.

00:02:40: Das ist ja auch so unfassbar in den Mainstream explodiert ist, weil man sich daran erinnert.

00:02:45: Inzwischen gibt es mehr Konkurrenz, Google's Gmini und der Hype flaut auch ein bisschen ab.

00:02:51: Und deswegen sind die Zahlen jetzt steigen nicht mehr explosionsartig an, aber halten sich auf einem sehr hohen Niveau.

00:02:58: ChatBT 3.5 ist das Modell, das bis vor kurzem das kostenlose Modell der Öffentlichkeit zugänglich war, endet mit dem Stand 22.

00:03:06: Das ist auch ein wichtiges Hintergrundwissen, weil wir auch darüber reden werden, wie man ChatBT für Recherchezwecke benutzt und zwar möglichst sicher benutzt.

00:03:17: Es gibt ein Zahlenmodell 4.0 und inzwischen ist es auf den Markt gekommen und da sieht man auch die rasanten Entwicklungen dieser ganzen Technologie.

00:03:25: ChatBT 4.0 und das war auch das Modell, das wir gerade gehört haben, das den Text für uns eingesprochen hat am Anfang.

00:03:34: So, das war eine kurze Zusammenfassung jetzt, wo wir den Überblick haben kommen wir zum Thema nämlich den Halluzinationen.

00:03:41: Das ist keine, also das kommt, ist Analogie aus der Psychologie, beim Menschen ist es eine Wahrnehmungsstörung.

00:03:48: In ChatBT betrieben sieht sich Halluzination auf Antworten und Ausgang des Modells, die unerwartet, unangemessen oder irrelevant sind.

00:03:56: Pia, du benutzt jetzt ChatBT auch schon eine Weile immer mal wieder, wie es ihnen deine Erfahrungen gibt.

00:04:03: Also an sich verstehe ich natürlich, warum es ein Feind ist, das zu verwenden.

00:04:07: Gerade für Recherche, für Brainstorming kann es sehr angenehm sein, weil man halt so ein gewisser Hauptpunkt in der Hand gleich gesagt kriegt vom Chatbot.

00:04:17: Aber für intensiver, in-depth Recherche würde ich es jetzt nicht verwenden.

00:04:22: Also ich habe jetzt auch nur die Gratis-Version verwendet, muss ich sagen.

00:04:25: Das heißt, ich kann jetzt mit dieser neuen Version, da kann ich nichts dazu sagen.

00:04:28: Aber die Gratis-Version würde ich mal nicht dafür verwenden.

00:04:30: Man kann sich nicht hundertprozentig sicher sein, was er, ich weiß nicht, warum er sagt, aber er ist jetzt einfach ein Er.

00:04:37: Ob das, was er sagt, da richtig stimmt.

00:04:40: Dazu muss man vielleicht noch einmal kurz erklären, wie funktioniert denn diese sogenannte künstliche Intelligenz eigentlich.

00:04:46: Weil es ist insofern keine dem Menschen-Analoge-Intelligenz,

00:04:52: sondern das Programm basiert auf einem sogenannten neuronalen Netzwerk und maschinellen Lernen.

00:04:59: Das neuronale Netzwerk ist wie ein mathematisches Modell, das versucht, wie das menschliche Gehirn zu funktionieren.

00:05:05: Beispielsweise kann man neuronalen Netzwerken ein Bild zeigen, also von einem Hund oder einer Katze.

00:05:11: Und je mehr Bilder man dem zeigt, desto genauer, zielgenauer kann, das Netzwerk unterscheiden, ist das ein Hund oder eine Katze.

00:05:19: Und alle Informationen, die wir über Chatchi BD abrufen, sind Informationen, die es quasi, so wie er gesagt, gefüttert bekommen hat.

00:05:30: Und Maschinen-Lernen heißt einfach nur, dass Computer es möglich ist, aus Erfahrungen in Anführungsstrichen selbstständig zu lernen.

00:05:42: Das heißt, die werden dann nicht mehr explizit programmiert, genau.

00:05:46: Sondern sie können dann unter Anleitung trainiert werden oder sogar ohne Anleitung.

00:05:51: Oder du kannst zwei Chatbots nebeneinander stellen und sie sich gegenseitig lernen lassen.

00:05:56: Also das ist dann das, was nicht mehr so einfach zu fassen ist, sowohl für uns, glaube ich, psychologisch als auch philosophisch, wo man irgendwann an die Grenze zu Definition stößt, was ist denn Intelligenz?

00:06:08: Und das darf man auch nicht bei den neueren Modellen vergessen.

00:06:12: Und das wird sich, wenn die Folge online ist, vielleicht hat sich dann schon wieder was getan, weil es einfach so schnell geht.

00:06:17: Man redet nicht, also das ist so täuschend echt inzwischen.

00:06:21: Man redet aber nicht mit einem intelligenten Wesen, das aus Erfahrungswerten schöpft, sondern da werden nur Daten abgefragt.

00:06:30: Aber es ist schon großartig, weil so wie es Chatchi-Bidi formuliert, die Antworten, ist es wirklich wie ein Gespräch.

00:06:36: Und das ist ein bisschen rückzauhend im Bereich Ancanny Valley, wo man wirklich immer so unterscheiden kann, ist das jetzt ein Mensch oder ist das ein Gerät?

00:06:45: Es ist ein bisschen großartig, muss man wirklich sagen, und es ist aber ein sehr gut trainiertes Gerät.

00:06:51: Es kam schon sehr viel, aber gleichzeitig ist es ein bisschen unsicher, zu verwerfen.

00:06:58: Zum Zeitpunkt der Aufnahme ist das Chatchi-Bidi 4O, also das neueste Modell, gerade hast du rausgekommen.

00:07:06: Das heißt, ich hatte da nur wenige Stunden Gelegenheit da ein bisschen zu testen.

00:07:10: Aber da muss ich schon sagen, dass ich da schon auf der Couch gesessen habe gestern und einfach völlig fasziniert war, weil was ja jetzt alles kann schon.

00:07:22: Ja, ich habe vorher eben auch das Gratismodell genutzt und habe deswegen nie diese Internetrecherchemöglichkeit gehabt.

00:07:31: Und als ich das dann gestern ausprobiert habe, kurz völlig obskure Fakten von irgendeiner Serie, wo irgendeine Figur in irgendeiner Folge irgendwas einmal gesagt hat, das habe ich abgefragt, weil ich wissen wollte, wie das genau als Zitat ging.

00:07:46: Und das hat er mal innerhalb von Sekunden ausgespuckt.

00:07:49: Und selbst, ich hätte das wahrscheinlich über Google schon ausgefunden, es hätte aber natürlich wesentlich länger gedauert und da.

00:07:56: Und dann habe ich mir gedacht, jetzt lass ich es mir noch vorlesen von einer sehr angenehmen und auf englisch sehr menschlich klingenden Computerstimme.

00:08:04: Und dann ist das schon wie so ein kleiner Kopf in deiner Tasche sozusagen.

00:08:11: Und du hast das wahrscheinlich auf dem Handy oder was weiß ich.

00:08:13: Und das ist schon, also da ist es dann ganz schwierig, glaube ich, sich zu, man muss sich vor Augen halten, das ist kein intelligentes Wesen.

00:08:23: Und es kann schwierig sein, immer präsent zu hinterfragen.

00:08:28: Ich stelle mir das halt gerade im Alltag, denke ich, daran.

00:08:31: Ich denke auch schon so ein Fake News, da hat man jetzt ja schon Probleme, Webseiten zu unterscheiden, die die Wahrheit sagen und Webseiten zu unterscheiden, wo die Quellen nicht sehr seriös sind.

00:08:40: Da tun wir uns ja schon schwer.

00:08:42: Und man wird ja auch schon jetzt reingelegt von so Robocalls und so, wo die eine Maschine anruft und dir sagt, irgendwer braucht Geld oder so.

00:08:51: Und die Leute überweisen es dann wirklich.

00:08:52: Also da haben wir ja schon Probleme.

00:08:54: Also das kann natürlich auch extrem ausgenutzt werden.

00:08:58: Wir reden ja heute über die Halluzinationen, insbesondere auch deswegen, weil als Bibliothek wissen wir, dass viele Leute, egal ob das hier Schüler*innen sind, Student*innen oder einfach Privatpersonen, die was rausfinden wollen, zu recherchen.

00:09:15: Ja, und zu recherchen, zu wecken, solche Sachen auch verwenden ist ja logisch, mache ich auch schon.

00:09:19: Und deswegen wollten wir da heute einfach mal darüber reden, weil wie du schon gesagt hast, das ist so ein Horiz der potenziellen Fehlinformation.

00:09:27: Wir haben ja auch Bücher diesbezüglich, wo die Leute sich ja auch informieren können und die vielleicht auch helfen.

00:09:34: Wir haben zum Beispiel bei der Technikhammer einstiegende Charitptie von Rolf Jäger oder wir haben auch eine Abteilung für kreatives Schreiben.

00:09:46: Da geht es in den Buch um Schreiben mit Charitptie für Autorinnen und Autoren von Sandra Ustin, auch für die Pädagogik-Abteilung.

00:09:53: Da hat man zum Beispiel auch Sachen, KI-Tools für den Unterricht, zum Beispiel von Ines de Florio Hansen.

00:09:59: Aber auch wir haben auch kritische Auseinandersetzungen, wie wir sie auch schon angesprochen haben, in der Philosophie-Abteilung zum Beispiel "Was kann und darauf künstliche Intelligenz?"

00:10:07: heißt der Titel von Julian Niederhoh-Mellen.

00:10:10: Also das heißt, wir haben auch Sachen, da wir sich auch gerne bei uns ein bisschen umschauen und da ein bisschen Recherche betreiben.

00:10:17: Genau, also weil es einfach unglaublich ist, sich mit dem Thema in Zukunft auseinanderzusetzen, das wirkt nicht mehr wegzudenken sein.

00:10:28: Die Wählinformationen werden, wie wir schon angesprochen haben, immer schwerer zu erkennen sein.

00:10:34: Und da wird nämlich die Kompetenz der Quellenkritik so unfassbar wichtig,

00:10:42: dass man nämlich, das ist das, was zumindest bei uns damals war, Wikipedia hatte große Strahle, also das große, wo man plötzlich diese Online-Enzyklopädie hatte,

00:10:55: auch als Schüler in Zugänglich, wo uns eingebläut worden ist, dass wir das nicht zitieren dürfen.

00:11:04: Der Grund ist, weil natürlich jeder, wo alles online stellen kann und im Endeffekt ist JGPD und Konsorten nur die Erweiterung dieses Prinzipes.

00:11:15: Nur, dass es da ein bisschen schwieriger ist, rauszufinden, was die Quelle ist.

00:11:18: Das ist einmal, erst mal am Ende der Folge kommen wir noch zu ein paar Tipps, wie man da damit umgehen kann.

00:11:25: Ich stelle mich dir vollkommen zu, weil was noch nicht ist, aber was jetzt rasant passieren wird, ist auch, selbst wenn man Quellen-Scherche betreibt,

00:11:34: je mehr Leute sich Texte von der KI erstellen lassen und diese dann wiederum ungeprüft auf vermeintlich sicherer Begründung.

00:11:41: Internetseiten stellen, desto tiefer geht die Spirale der

00:11:45: Fehlinformation, dass man dann irgendwann eine Quelle zur Hand nimmt, nachdem man

00:11:50: ChatGPT gefragt hat und die Quelle im Internet dann aber auch wieder nicht

00:11:53: sicher ist, weil die auch wiederum von einem anderen Chatboard erstellt worden

00:11:57: ist und vielleicht auch fehlerhaft. Also es wird eine große Frage sein, wie überprüft

00:12:02: man diese Informationen. Und da kommt zum Beispiel so etwas wie der Brock House, dann

00:12:08: doch so alt, wo ich es klingen mag, retten zur Seite.

00:12:14: Weil auch die Infokanemie verlassen. Genau, weil da tatsächlich Leute dahinter sitzen,

00:12:20: die diese Einträge überprüfen und diese Einträge schreiben. Inzwischen braucht man

00:12:25: das aber nicht mehr im Bücherregal stehen haben, man braucht doch nicht mehr

00:12:29: händisch in die Bibliothek zu kommen, um das Ding da außenregal zu wuchten,

00:12:33: sondern wir haben ja ein Angebot, geil? Wir haben den digitalen Brock House,

00:12:38: kann jeder jeder verwenden, der bei uns oder die bei uns Kundin ist. Da braucht man

00:12:43: nur die Anmeldetenformationen bei uns, mit denen man sich auch auf der Webseite

00:12:47: für die Medien anmelden kann und mit diesen gleichen Infos kommt man dann

00:12:50: auch beim digitalen Brock House rein und da gibt es sowohl die Erwachsenenversion,

00:12:55: aber auch eine für Kinder und für Jugendliche. Ja, also das wirklich, wenn man

00:12:59: sich nicht sicher ist, ob die KI die richtige Antwort ausspuckt und es um Daten

00:13:05: und harte Fakten geht, dann schaut man da schnell rein und es ist dann kein Text,

00:13:09: der von einer KI generiert da reingestellt worden ist, wie es zum Beispiel

00:13:12: in der Fikipedia durchaus passieren kann auch schon inzwischen.

00:13:15: Pia, bevor wir zu den Tipps kommen, du hast Halluzination glaube ich mitgebracht, oder?

00:13:20: Ja genau, das ist ein bisschen ein Spoiler für die Zukunft, aber wir machen ja eine

00:13:23: Folge zu historischen Romanen. Da habe ich ein bisschen recherchiert,

00:13:26: habe ich vorhin an und habe eben auch Chatipiti ausprobiert und wollte einfach

00:13:30: Beispiele haben für rebellische Frauen in historischen Romanen.

00:13:35: Ich habe die Frage genauso bestellt und er hat mir Beispiele genannt, auch brav

00:13:40: dann gleich erklärt warum diese Frauen rebellisch waren, aber er hat sich mehr

00:13:44: darauf konzentriert auf die rebellischen Frauen und nicht auf das Genre,

00:13:50: den historischen Romanen. Das heißt, dann habe ich zum Beispiel Antworten bekommen,

00:13:55: wie Stolz und Vorurteil von Jane Austen oder Little Women von Louisa May Elcott

00:14:03: und das sind schon Romane, wo es um eine andere Zeit geht, aber die auch in dieser

00:14:11: anderen Zeit geschrieben wurden. Das heißt eigentlich zeitgenössische Romane.

00:14:15: Und das hat er nicht erkannt. Und ich habe ihn dann in der Nachhinein nachgefragt,

00:14:21: habe ich dann gefragt, ist Stolz und Vorurteil wirklich ein historische Roman

00:14:24: und dann hat er mir erklären angefangen, warum es zum Teil historisch Roman ist

00:14:29: und warum es zum Teil nicht historisch Roman ist. Und das ist natürlich dann

00:14:33: schwierig, weil wenn ich als Nutzerin das selber nicht weiß und nachfrage und

00:14:37: erklärt mir wieder eine Unwahrheit, wird es natürlich schwierig.

00:14:40: Ich habe ihn dann ausgebessert, habe gesagt, nein das stimmt nicht und habe

00:14:43: erklärt, warum das jetzt in dieser Zeit geschrieben wurde und deswegen ein

00:14:47: zeitgenössische Roman ist und dann hat er sich bedankt und gesagt, das war falsch

00:14:53: von ihm und es tut ihm leid und danke, dass ich ihn ausgebessert habe. Und dann

00:14:56: habe ich ihn gefragt, ob das dann nicht auch auf die Luhm zu trifft und das hat

00:15:00: er dann überrissen. Da ist er dann mitgekommen, das hat er dann ausgebessert,

00:15:05: hat gesagt, ah ja, das stimmt dann absolut, das ist dann auch nicht richtig, aber es

00:15:09: waren nicht nur die zeitgenössischen Romane, zum Beispiel ganz anderer Chancen,

00:15:12: das auch erwähnt. Zum Beispiel hat Katniss Aberdeen und als Tribute von Panemreihe

00:15:18: genannt und das ist ein dystopischer Roman. Ja, da ist es lustig, bei der Antwort hat er

00:15:26: dann selber schon geschrieben, obwohl die Tribute von Panem ein dystopischer Roman

00:15:30: sind, ist Katniss Aberdeen eine rebellisch Frau. Also ihm war absolut bewusst, dass es

00:15:34: nicht stimmt, aber hat es trotzdem genannt. Und dann hat er sogar viel mehr erwähnt,

00:15:39: also er hat die Elizabeth Swan, also der Fluchtageredigreie, auch als Beispiel genannt.

00:15:44: Keine historische Figur auch. Und dann hat er dann auch, dann habe ich ihn ausgebessert,

00:15:50: und er hat auch gesagt, ich entschuldige mich für das Missverständnis, ist es Teil

00:15:54: der Nachbinderei, ich hätte das klarer darstellen sollen.

00:15:57: Höchlich ist es Roman, es stimmt einem auch immer zu. Also es ist auch, wenn es einem nicht

00:16:03: zustimmt, das habe ich einmal ausprobiert, wo ich gestern schnell noch, wo ich an klaren,

00:16:07: er hat mir gesagt, ich weiß nicht mehr, welchen Schriftsteller ich gefragt habe,

00:16:12: wie alt er ist, und ich habe dann so getan, dass würde das nicht stimmen und habe ihn

00:16:15: korrigiert. Und dann hat er gesagt, ja, du hast recht. Und dann hat er aber wieder die

00:16:19: richtige Zahl gesagt. Also beharrt er schon.

00:16:23: Weil beharrt er auf die Sacken, aber es widersprich, ich glaube, es ist programmiert, damit es

00:16:31: möglichst smooth und angenehmer hinsegelt. Und das stimmt dir zu, auch wenn du komplett

00:16:36: umrechtest und es dich auswässert. Ein Molly. Aber nach diesen Korrekturen habe ich dann

00:16:43: gesagt, okay, mit diesem Wissen im Hintergrund kannst du mir bitte nochmal rebellische Frauen

00:16:48: aus historischem Romanen nennen. Und dann hat das richtig gemacht. Dann hat er wirklich

00:16:53: eben Cleopatra, ein Bonny, also und dann hat er wirklich auch die Frauen und die richtigen

00:16:58: Romanen gewählt. Allerdings waren es alles ältere Romanen. Und jetzt habe ich gesagt,

00:17:02: ich kann schon neuere auch erwähnen. Das hat er dann auch gemacht, aber sie waren

00:17:07: trotzdem immer noch ein bisschen älter, also von zu 18 und so. Da war dann sogar ein

00:17:12: eins dabei, wo wir die Reihe haben, die Fotografin von Petra Doos Benning. Die haben wir auch

00:17:17: bei den historischen Romanen. Und dann habe ich gesagt, okay, kannst du mal welcher ist

00:17:21: 2024 erwähnen? Und dann hat er gesagt, nein, das geht nicht.

00:17:25: Ja, das hat man eben gesagt. Weil der Datensatz, die Version, die Buch für die Recherche,

00:17:31: für die Folge genommen, hast du die 3.5, die keinen Zugang aufs Internet hat und die

00:17:34: trainiert bis zum Stand hier in der 22. Aber das zeigt ein sehr schönes Beispiel auf,

00:17:39: dass das eben keine Intelligenz ist, sondern dass das ein mit Daten trainiertes Programm

00:17:47: ist. Und deswegen, das hat die Erfahrung, habe ich mit der Version auch gemacht, die

00:17:53: stärksten Outputs kriegst du so, wenn du solche Sachen recherchierst, für so 2015 bis 2018,

00:18:00: das scheint es einfach mehr Datensätze zu geben. Neuere Sachen im Literaturbereich,

00:18:05: vielleicht nach 18, darauf ist es wahrscheinlich einfach noch nicht gut genug trainiert. Und

00:18:11: noch sieht man sehr schön daran, wo da das Limit herrscht und das ist einfach nur Datensätze

00:18:17: sind. Und es ist eine andere Folge, wo wir über andere Probleme reden, die GPT hat, was Urheber

00:18:25: recht und dergleichen angeht, das ist ja auch ein riesengroßes Thema, das schneiden wir aber

00:18:31: deswegen heute gar nicht an. Das Beispiel zeigt nun aber auf, wie man mit GPD gut umgehen kann.

00:18:38: Deswegen kommen wir jetzt zu unseren Tipps im Umgang mit einem Programm wie GPD. Zum einen hast du

00:18:45: dich ja in den Dialog mit dem Programm gegeben. Das heißt, du hast nicht eine Abfrage gemacht

00:18:51: und das dann einfach dabei belassen, sondern du hast Rückfragen gestellt, du hast deine Promz,

00:18:56: wie man das nennt, spezifiziert, du hast das Programm korrigiert und dann hast du wahrscheinlich

00:19:03: so eine Form von Dialog gegeben mit dem Programm, oder? Ja, genau. Also er hat sich dann natürlich auch immer

00:19:08: auf die vorigen Antworten bezogen und das hat er auch verstanden. Also da muss ich nicht nochmal sagen,

00:19:13: okay, die ganze Frage nochmal formulieren, sondern ich kann sagen, na bitte, mach das nochmal neu

00:19:19: oder so und das versteht er dann. Also beim 3.5er, ich habe damit da ein bisschen gearbeitet, nicht

00:19:24: bis uns ins umendliche zurück, tatsächlich. Also wenn du da einen sehr langen Thread hast,

00:19:29: dann verliert er den Faden irgendwann buchstäblich, aber ich bin mir sicher auch mit den neueren,

00:19:35: besseren Modellen hat ein längeres Gedächtnis. Und das nächste ist, du hattest Fachwissen zu dem

00:19:41: Thema, wo du ihn gefragt hast oder wo du das Programm gefragt hast und konntest deswegen einschätzen,

00:19:47: was du machst. Wenn man gar keine Ahnung von einem Thema hat wird, also je weniger Ahnung man hat,

00:19:54: desto gefährlicher wird es im Endeffekt, weil man sich teilweise ja fast im Blimflug auf Fakten

00:20:00: verlassen muss, die man nicht einmal bedenkt zu überprüfen. Deswegen macht, finde ich, das Nutzen

00:20:04: gerade so im schwulischen Kontext wahrscheinlich Sinn, wenn man das in der Gruppe macht, wenn mehrere

00:20:11: Leute die gleiche Anfrage auch stellen und man die Antworten dann im Plenum austauscht. Oder aber,

00:20:17: wenn man sich eine Pia sucht, die sich gut mit Literatur auskennt, einfach jemanden eine Fachfrau

00:20:24: oder einen Fachmann, ein Lehrer, eine Lehrerin, Dozentinnen, Professorinnen, die zu dem Thema was

00:20:31: wissen und die man dann auch fragen kann. Also einfach in die Welt rauskommt, Leute fragen, die

00:20:37: dafür Experten sind, sozusagen, wenn das möglich ist. Und das hast du auch gemacht, du hast die KI

00:20:42: gefragt, stimmt das? Also man kann auch ganz salopp einfach einmal zurückfragen, ist diese

00:20:49: Information korrekt, gerade wenn es um wichtige Infos geht und das nächste, was man machen kann,

00:20:54: ist gerade, das geht aber nur dann, wenn die Version, die man benutzt, auch Internetanschluss hat,

00:20:59: bitte gib mir die Quellen durch oder sage mir die Quellen auf und die muss man dann in

00:21:04: kleiner Arbeit durchgehen und schauen, stimmt das wirklich, welche Website ist es, ist die Website

00:21:10: sicher, woher kommen die Texte auf der Website, sind die von der KI generiert oder schreiben das,

00:21:15: schreibt das Fachpersonal, wird das überprüft und so weiter und so fort. Werden Kritik halt?

00:21:20: Ja, ich glaube, da haben wir jetzt schon viel über das Thema geredet, das eher so ein Service-Podcast

00:21:29: oder eine Service-Folge von unserem Vorwort. Wie hast du dem noch was hinzutun, noch selber am

00:21:34: Tipp oder Erfahrungswerte noch? Nein, also wir haben wirklich alles wichtige,

00:21:39: mein erwähnt. Und das ist der Thema, das man auf jeden Fall ausbauen kann, wie gesagt,

00:21:43: Datenschutz oder Urheberrecht, da kann man immer noch mal eine Folge drüber machen,

00:21:49: also ich glaube, das ist endlos und dieses Gerät wird ja auch, diese Maschine wird ja auch immer

00:21:53: besser und wird sich auch wandeln und dann gibt es noch wahrscheinlich einiges mehr Punkte,

00:21:58: die man dann alle besprechen kann. Es ist jedenfalls eine sehr aufregende Zeit,

00:22:02: es ist vielleicht ab und zu fühlt sich ein bisschen ominös an, aber ich bin persönlich der

00:22:09: festen Überzeugung, dass wenn man sich mit diesen Themen auseinandersetzt, wenn man sich damit

00:22:13: beschäftigt und diese Dinge auch alle hinterfragt, was ist es denn wirklich, was bedeutet künstliche

00:22:18: Intelligenz, was ist maschinelles Lernen und so weiter und so fort, dass man dann diese Dinge

00:22:24: für sich nutzen kann, als Tools, die sie sein sollen und die dann nicht umgekehrt quasi über

00:22:31: dich beeinflussen oder dich will. Ja, genau. Und damit danken wir euch fürs Zuhören. Wie sind eure

00:22:39: Erfahrungen mit ChatGBT? Schreibt uns auf poststadtbibliothek@insbruck.at, Instagram oder Facebook.

00:22:45: Tschüss, ciao!

00:23:13: Das Vorwort ist eine Produktion der Stadtbibliothek "Insbruck" und Teil der Stadt stemmen, dem

00:23:18: Auducanal der Stadt "Insbruck".

00:23:20: Ich hoffe, ihr seid heute sehr gut.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.