06Okt/23

Es geht nichts über das Original – Mein Recap zum HR BarCamp 2023

Quelle: Weiterbildungsblog Autor: jrobes

Peter M. Wald (HTWK Leipzig) hat seine Eindrücke vom HR BarCamp in Berlin festgehalten. Seine Stichworte: Kompetenzen im Recruiting, HR & KI, HR und Blue Collar Worker sowie hybrides Arbeiten. Zur laufenden BarCamp-Saison passt auch sein Hinweis auf den vielfältigen Methodeneinsatz, der in den Sessions gelungener BarCamps zu beobachten ist.

Der Wermutstropfen aus seiner Sicht: „Tja und etwas hat (mir) gefehlt. Die dynamischen Twitter-Diskussionen. Hierbei sind gerade in den ersten HR BarCamps viele Dinge auch im Nachhinein sichtbar geworden und es gab auch die Möglichkeit die Diskussionen in den anderen Gruppen zu verfolgen und ggf. auch die Session zu wechseln.“
Peter M. Wald, Leipziger-HRM-Blog, 6. Oktober 2023

Zum HR BarCamp siehe auch: Catrin Behlau: HR BarCamp: Ein neues Höchstmaß an Abwechslung, Personalwirtschaft, 4. Oktober 2023

05Okt/23

Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft

Quelle: Weiterbildungsblog Autor: jrobes

Das ist eine wirklich lesenswerte Literaturstudie (101 S.), die jetzt fast ein Jahr Diskussion um KI und ChatGPT wunderbar zusammenfasst! Sie wurde von Michael Seemann („Die Macht der Plattformen. Politik in Zeiten der Internetgiganten“) verfasst und von der Hans Böckler Stiftung unter einer offenen Lizenz (CC BY) herausgegeben. In den ersten beiden Kapiteln werden Large Language Models (LLM) wie ChatGPT noch einmal vorgestellt, sehr informativ, unaufgeregt, verständlich und mit dem Raum für interessante Exkurse. Hier ein Beispiel:

„Die Debatte krankt an einer allgemeinen Verwirrung um Begriffe wie „Bedeutung“, „Verstehen“ und „Denken“. LLMs haben unsere eigene Semantik der Semantik durcheinandergebracht. Wir stoßen an die Grenze unserer eingespielten Begrifflichkeiten. Die Antwort auf die Frage, was LLMs wirklich verstehen, scheint mir weniger in den LLMs selbst zu liegen, sondern in der Frage, in welchem Zusammenhang Sprache und Verstehen im Allgemeinen zu denken sind.“ (S. 36, „Exkurs: Sprache, Differenz und semantische Grammatik“)

Im zweiten Teil der Studie geht Michael Seemann dann auf die Auswirkungen dieser Entwicklungen auf die Arbeitswelt ein. Nach der Zusammenfassung verschiedener Studien und Zahlen beschreibt er sehr anschaulich drei Zukunftsszenarien im Jahr 2033. Die folgenden Szenarien stehen dabei für die Entwicklungslinien „Disruption“, „Integration“ und „Transformation“:

„Die (fiktive) Ex-Übersetzerin Lucia führt uns durch ihre prekäre Existenz, nachdem die LLMs von ihrem Beruf nichts übriggelassen haben. Der (fiktive) Altenpfleger Achmed zeigt uns die Vor- und Nachteile der ihn umgebenden Sprachassistenten. Und die (fiktive) Hochschuldozentin Sophie erzählt, wie sich die Universitätslandschaft in einem rasanten Jahrzehnt verwandelt hat.“
Michael Seemann, Hans Böckler Stiftung, Working Paper Forschungsförderung, Nr. 304, Düsseldorf, September 2023

05Okt/23

KI-Strategie: Prompting, Referenzieren & Regeln

Quelle: Weiterbildungsblog Autor: jrobes

Wie gehen wir mit KI-Werkzeugen wie ChatGPT beim Lehren und Lernen um? Nehmen wir zum Beispiel einen Punkt aus dem Beitrag von Nele Hirsch, das Referenzieren. Sollte ich ausweisen, dass ich bei der Erstellung von Texten ChatGPT genutzt habe? Sicherlich nicht in Form einer Quellenangabe, denn auf denselben Prompt können von ChatGPT unterschiedliche Antworten gegeben werden. Vor diesem Hintergrund schlägt Nele Hirsch vor, dass man zumindest die Nutzung der KI-Werkzeuge offenlegt, die man eingesetzt hat. Ich bin da etwas unsicher. Auf der einen Seite würde ich eine solche Transparenz als „Blick über die Schulter“ begrüßen. Auf der anderen Seite nutzen wir bei der Erstellung von Texten (um bei diesem Beispiel zu bleiben) häufig heute schon unterschiedliche Tools: zum Zusammenfassen, zum Übersetzen, zum Kuratieren, zum Korrigieren usw. Sie alle offenzulegen, wäre für Dritte sicher interessant, aber für Autor:innen wenig praktikabel.
Nele Hirsch, eBildungslabor, 4. Oktober 2023

05Okt/23

Mobile learning revisited

Quelle: Weiterbildungsblog Autor: jrobes

Philip J. Kerr zieht hier Vergleiche zwischen Mobile Learning und Künstlicher Intelligenz. Dafür geht er zurück zu den Anfängen von Mobile Learning 2006/ 2007 und folgt einigen Wegmarken der Diskussion, vor allem im Bereich des Sprachenlernens. Sein Resümee:

„Mobile learning changed things for the better for some learners in some contexts: claims that it was the future of, or would revolutionize, language learning have proved somewhat exaggerated. Indeed, the proliferation of badly-designed language learning apps suggests that much mobile learning reinforces the conventional past of language learning (drilling, gamified rote learning, native-speaker models, etc.) rather than leading to positive change (see Kohn, 2023). The history of edtech is a history of broken promises and unfulfilled potential and there is no good reason why generative AI will be any different.“
Philip J. Kerr, Adaptive Learning in ELT, 5. Oktober 2023

05Okt/23

LinkedIn Launches Exciting Gen AI Features in Recruiter and Learning

Quelle: Weiterbildungsblog Autor: jrobes

Wie immer etwas atemlos berichtet Josh Bersin von den neuesten Entwicklungen aus dem Hause LinkedIn. Was das Lernen, also die Kursbibliothek von LinkedIn Learning betrifft, so heißt es: „Well the product team at LinkedIn Learning has just unveiled their new AI-powered coaching feature, allowing users to ask questions and get narrative answers generated from courses tailored to them, based on insights about their skills and roles.“

Das klingt nach einer hilfreichen Assistenzfunktion. Die wäre aus Nutzersicht natürlich noch spannender, wenn sie nicht nur, sondern auch auf die Kursbibliothek von LinkedIn Learning zugreifen würde. Aber das verhindern natürlich die kommerziellen Lizenzsysteme der Anbieter. Und solche Assistenten, Josh Bersin merkt es an, werden wir wohl in Zukunft auf allen Plattformen der großen Kursanbieter erwarten dürfen.
Josh Bersin, Blog, 3. Oktober 2023

05Okt/23

Stiftung Innovation in der Hochschullehre: Bewerbung für das Jahresprogramm 2024 jetzt möglich

Quelle: e-teaching.org-Blog Autor: e-teaching.org-Blog

Bis zum 1. November können sich Interessierte für das Jahresprogramm 2024 der Stiftung Innovation in der Hochschullehre bewerben. In fünf Workshops, die sich über einen Zeitraum von einem dreiviertel Jahr erstrecken, soll an der individuellen und strukturellen Stärkung von Nachhaltigkeit im Kontext der Hochschullehre gearbeitet werden.

04Okt/23

Metaverse & Lernen

Quelle: Weiterbildungsblog Autor: jrobes

Im Moment hat KI in der öffentlichen Diskussion das Thema „Metaverse“ etwas abgehängt, also gilt es, wieder Boden gutzumachen. Ich bin allerdings unsicher, ob dieser Bitkom-Leitfaden (16 S.) mit dem Untertitel „Ein- und Ausblicke in die Zukunft des Corporate Learning“ hier eine große Hilfe ist. Das Dokument ist in vier Kapitel gegliedert: 1. Metaverse: Die Zukunft des Lernens?, 2. Die wichtigsten Grundlagen: Didaktische Konzepte & Technische Voraussetzungen, 3. Fallbeispiele: Was es schon gibt & was noch werden kann, 4. Fazit: Die Zukunft des Lernens.

Die Fallbeispiele sind kurz und nur online bebildert. Ein Beispiel, der „Metaverse Campus“, hat leider keine Quellenangabe (ja, man kann es natürlich googeln …). Kurz: Der Leitfaden will einen „Wegweiser“ für die erfolgreiche Nutzung des Metaverse zu Lehr- und Lernzwecken bieten. Doch wie viele Studien und Artikel zum Thema wird auch hier munter zwischen Gegenwart und Zukunft gewechselt. Was das Metaverse genau ist oder sein wird, kann heute noch nicht gesagt werden. Es ist „noch in der Entstehung“ (S. 4), und es geht um virtuelle Welten. Aussagen wie die folgende lesen sich deshalb sehr schön, sind aber aktuell nicht belastbar: „Lernende besitzen eine aktive, gestaltende Rolle und werden damit Teil und Weiterentwickler des Metaverse als lebendiges, aus sich herauswachsendes System.“ (S. 5)
Bitkom, 2023

02Okt/23

The Critical Value of Human-Created Knowledge to the Future of Generative AI

Quelle: Weiterbildungsblog Autor: jrobes

Noch ist Wikipedia die erste Adresse, wenn es um schnelle, verlässliche Informationen geht. Aber wie sieht es in Zukunft aus? Wird Künstliche Intelligenz die menschlichen Redakteure ersetzen? Oder werden Chatbots wie ChatGPT gar zur ersten Anlaufstelle für unsere täglichen Fragen? Irving Wladawsky-Berger führt im ersten Teil seines Beitrags in laufende Diskussionen um die Zukunft der Wikipedia ein. Im Moment stellt Wikipedia einen reichen Fundus an Texten zur Verfügung, mit dem Large Language Models wie ChatGPT trainiert werden. „But, the most critical value of Wikipedia to Generative AI is the fact that its knowledge is created by humans.“ Aber, und das ist der wichtige Punkt dieses Beitrags, es gibt offensichtlich nicht nur ideelle, sondern auch ganz praktische Gründe, an „knowledge created by humans“ festzuhalten.

Denn werden generative KI-Systeme zukünftig mit KI-Inhalten trainiert (was in einer Welt, die mit KI-generierten Inhalten überschwemmt wird, nicht unwahrscheinlich ist), soll offensichtlich etwas auftreten, das in aktuellen Studien „model collapse“ genannt wird: „Generative AI models need to train on human-produced data to function. When trained on model-generated content, new models exhibit irreversible defects. Their outputs become increasingly ‘wrong’ and homogenous. Researchers found that even in the best learning conditions, model collapse was inevitable.” 

Nur am Rande: Auch Michael Seemann („Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft“) geht in seiner Studie auf Seite 49 auf dieses Problem ein. Hier (Wladawsky-Berger) und dort (Seemann) finden sich die Links zu den Studien.
Irving Wladawsky-Berger, Blog, 28. September 2023