Avsnitt
-
In dieser Folge von Tensorraum sprechen wir mit Felix Schlenther, dem CEO von Leading Tomorrow, über die Integration von Künstlicher Intelligenz in Unternehmen. Felix teilt seine reichhaltigen Erfahrungen und diskutiert die aktuellen Trends und Herausforderungen. Dabei gehen wir auch auf die Bedeutung von Erwartungsmanagement und die Notwendigkeit des Datenschutzes ein. Außerdem diskutieren wir über die langfristige Perspektive der Künstlichen Intelligenz: Wird sie Arbeitsplätze ersetzen oder lediglich unterstützen? Felix teilt seine Erfahrungen aus der Beratung von mittelständischen Unternehmen bei der Implementierung von KI-Technologien. Er betont die Bedeutung eines realistischen Ansatzes und wie seine Firma, Leading Tomorrow, Unternehmen dabei unterstützt, KI-gestützte Prozesse zu etablieren. Zuletzt stellt er uns seine Lieblings-Tools wie LangDoc und TLDV.io vor und gibt uns ein paar Beispiele für spannende KI-Startups in Deutschland. Zum Abschluss werfen wir einen Blick in die Zukunft: Welche Trends zeichnen sich im Bereich der Künstlichen Intelligenz ab? Unter anderem werden Firmen wie Google und OpenAI sowie Produkte wie Gemini und Perplexity diskutiert.
Wir entschuldigen uns für Probleme in der Tonqualität von Jannis.
Links zur Folge:
Felix Schlenther
Leading Tomorrow
Langdock
Merck & Langdock: Die MyGPT Suite (paywall)
TLDV.io
Gebt uns gerne Feedback
Email: [email protected]
Links zu uns:
https://www.tensorraum.de
Stefan Wiezorek
Dr. Jannis Buchsteiner
00:00 Intro & Teaser
03:31 KI in der Praxis: Erfahrungen und Einblicke von Felix
10:47 KI-Assistenten: Ein Werkzeug zur Produktivitätssteigerung
17:00 Realistische Erwartungen an KI und die Rolle von Ethik
25:38 Datenschutz, Ethik und Anwendungsfälle
32:48 Aufbau eines AI-Teams und strategischer Rahmen
36:07 Die Rolle von KI-Experten und Data Scientists
40:48 Deutschlands AI-Startups im Fokus
44:02 Globale AI-Markttrends und Zukunftsaussichten -
Diese Folge von Tensorraum wirft ein Licht auf die spannenden Entwicklungen im Bereich der KI-Hardware, mit einem besonderen Blick auf die Akteure Nvidia & Groq. Arne und Stefan diskutieren die unersetzliche Rolle der Rechenleistung für die Fortschritte in der künstlichen Intelligenz, insbesondere wie Groq mit seinen innovativen Strategien und dem Bau eines Datencenters in Norwegen die Branche vorantreiben möchte. Gleichzeitig beleuchten sie Nvidias festen Stand beim Trainieren von KI-Modellen und diskutieren die zukünftigen Konkurrenzkämpfe. Ein weiteres spannendes Thema ist die Rolle der CEOs in der Technologiebranche, deren öffentliche Auftritte und Entscheidungen maßgeblich die Richtung ihrer Unternehmen bestimmen. Darüber hinaus betrachten sie die zukünftigen Möglichkeiten, die sich aus der Verbreitung verteilter Agenten und der Integration von großen Sprachmodellen (LLMs) ergeben, die das Potenzial haben, die Interaktion zwischen Mensch und Maschine neu zu definieren. Abgerundet wird die Diskussion durch eine Analyse der Positionen von Google, Microsoft und Apple in der sich rasch entwickelnden KI-Landschaft und wie diese Technologie Giganten durch Strategien und Partnerschaften ihren Einfluss im Sektor zu vergrößern suchen.
Links zur Folge:
Jensen Huang & Sam Altman
Groq
Earth Wind & Power
Das Datencenter in Norwegen
Das Paper über benutzerzentrierte Benchmarks für LLMs
Gebt uns gerne Feedback
Email: [email protected]
Links zu uns:
https://www.tensorraum.de
Stefan Wiezorek: https://www.linkedin.com/in/stefanwiezorek/
Dr. Arne Meyer: https://www.linkedin.com/in/arne-meyer-6a36612b9/
00:00 Intro & Teaser
02:09 Nvidias GPUs
07:39 Groqs LPUs
10:12 Die Rolle von Agenten
19:22 Earth Wind & Power und Groq Datencenter in Norwegen
27:27 Stefan’s Use-Case Benchmark
36:19 Strategische Positionierung von Google, Microsoft & Apple
40:47 Open Source und Transparenz in der KI-Entwicklung
55:39 Abschluss und Ausblick -
Saknas det avsnitt?
-
In dieser spannenden Folge dringen wir tief in die Welt der Künstlichen Intelligenz ein. Beginnend mit der Zukunft der KI auf Smart Devices und der Exploration von Mini-Modellen wie Phi 3 von Microsoft, navigieren wir durch die ethischen und technischen Herausforderungen der KI. Wir diskutieren über die Verkleinerung von Modellen für eine effiziente Nutzung auf Smartphones und die Besonderheiten der Mehrsprachigkeit in KI-Systemen. Die Episode enthüllt auch Einblicke in die Crescendo-Attacke, eine Methode, um KI-Modelle auszutricksen, und berührt die Grenzen von Hardware-Gadgets wie dem Humane AI Pin oder Limitless AI. Abschließend werfen wir einen kritischen Blick auf die Auswirkungen von Automatisierung und KI auf den Arbeitsmarkt, einschließlich Amazons Einsatz von 750.000 Robotern, und diskutieren, wie KI die Arbeitswelt verändern könnte.
Links zur Folge:
Das Microsoft Paper über Crescendo-Attacken
Microsoft’s Vorsichtsmaßnahmen
Das Phi-3 Modell
Der Humane AI Pin
Der Review von Marques Brownlee
Limitless AI
Pressemitteilung zu Amazon Go Just Walk Out Stores & Vorwürfen
Gebt uns gerne Feedback
Email: [email protected]
Stefan Wiezorek: https://www.linkedin.com/in/stefanwiezorek/
Dr. Jannis Buchsteiner: https://www.linkedin.com/in/jannis-buchsteiner/
Borge Claussen: https://www.linkedin.com/in/borge-claussen-440200174/
00:00 Intro & Teaser
01:39 Die Crescendo-Attacke: Wie LLMs manipuliert werden können
15:36 Die Herausforderung der Mehrsprachigkeit und Modellgröße
15:47 Phi-3 von Microsoft: Portable Mini-LLMs?
27:29 Der Humane AI pin: The Worst Product I’ve Ever Reviewed
39:54 Limitless AI: Sprachgesteuerter KI-Assist für 99 USD
43:47 Das Ende der Amazon Go Just Walk Out Shops & AI-Washing -
In dieser Episode von Tensorraum tauchen wir, Arne Meyer und Stefan Wiezorek, tief in die neuesten Trends, Entwicklungen und Beobachtungen im Bereich der künstlichen Intelligenz ein, mit einem tieferen Blick auf den AI Index Report der Stanford University. Wir diskutieren über den bemerkenswerten Anstieg von KI-Patenten in China, die weltweiten Investitionen in KI-Technologien und geben Einblicke in die überraschende Lage des KI-Arbeitsmarktes. Ein zentrales Thema ist die vorherrschende Rolle von Python in der KI, der aktuelle Stand der KI-Modellentwicklung mit Hinblick auf Meta’s neues Llama 3 Modell, der Einfluss von synthetischen Daten auf das Training dieser Modelle und die sich verändernde Landschaft der KI-Integration in Geschäfts- und alltägliche Anwendungen. Dabei erörtern wir spannende Fragen zur Zukunft der KI und deren Auswirkungen auf den Arbeitsmarkt und die Forschung.
Links zur Folge:
Mehr zu Meta’s KI Plänen (nur mit VPN verfügbar): https://www.meta.ai
Meta’s Llama 3 Modell: https://llama.meta.com/llama3/
Stanford AI Index: https://aiindex.stanford.edu/report/
Der ‘Humane AI pin’ review von Marques Brownlee: https://www.youtube.com/watch?v=TitZV6k8zfA
Links zu uns:
https://www.tensorraum.de
Email: [email protected]
Stefan Wiezorek: https://www.linkedin.com/in/stefanwiezorek/
Dr. Arne Meyer: https://www.linkedin.com/in/arne-meyer-6a36612b9/
Kapitel
00:00 Intro & Teaser
01:31 Microsofts Video-Modell: Vasa-1
02:48 Microsofts vorzeitig veröffentlichte LLM: WizardLM-2
06:00 Lama 3: Das neue Open Source Modell von Meta
10:11 LLM Modellgrößen und ihre Anzahl von Parametern - Anwendungen?
13:20 Metas Klitzekleine Investition - 24.000x H100 Nvidia GPUs
15:14 Meta AI - Zukunftspläne und Träume
19:00 Nutzungsmöglichkeiten & Big Tech im Rennen
30:29 Der Stanford AI Index Report - Ländervergleiche, Patente & Investments
41:02 Synthetische Trainingsdaten und ob sie helfen
49:30 Der Gender Gap in Informatik
50:57 Der KI-Jobmarkt: Stellen, Skills & Karrierepfade
01:00:28 Robotics & die Zukunft der Saugroboter/ Humanoiden Roboter -
Jannis, Arne & Stefan bringen euch wie jeden Dienstag die aktuellen Neuigkeiten aus der Tech Welt rund um Künstliche Intelligenz.
Interessant Themen heute sind:
Führt KI zu mehr Fairness?
Warum hat London das Potential zu einem DER KI Hubs weltweit zu werden
Und Arne freut sich auf das neue Modell von Mistral
Arne's Buch Tipp: Der Chip Krieg von Chris Miller
"In seinem Bestseller "Der Chip-Krieg" skizziert Chris Miller eindrucksvoll die Hintergründe des Wettlaufs um immer kleinere, leistungsstärkere Chips"
Deutsche Version: https://amzn.eu/d/gNtgpCl
Englische Version: https://amzn.eu/d/c2heWUZ
Link zur Pressemitteilung von Microsoft: https://blogs.microsoft.com/blog/2024/04/07/announcing-new-microsoft-ai-hub-in-london/
Linkedin Artikel von Stefan über den Wettbewerb um Cloud-Computing: https://www.linkedin.com/posts/stefanwiezorek_der-cloud-computing-krieg-activity-7185502111835529216-G_29?utm_source=share&utm_medium=member_desktop
00:00 Intro
02:00 Höhle der Löwen & Co
07:13 Arne's Buch Tipp
09:00 Führt KI zu mehr Fairness
16:25 KI Hub London
28:00 GPT mit YouTube trainiert
34:00 Mistral AI neues Modell
45:39 Google Paywall -
Jannis, Borge & Stefan bringen euch wie jeden Dienstag die aktuellen Neuigkeiten aus der Tech Welt rund um Künstliche Intelligenz.
Interessant Themen heute sind:
Was macht man eigentlich mit OpenAI's neuer Voice Engine?
Und natürlich, welche Gefahren stehen dahinter?
Sollte es eine Kennzeichnungspflicht für KI Content geben?
Wiedermal die Google Suche und mögliche Bezahlmodelle
und vieles mehr...
00:00 Intro
02:00 Arbeitslose / Wer wird arbeitslos?
05:00 KI Content in Social Media
07:35 OpenAI Voice Engine
24:28 Kleine News inkl. Supercomputer
30:55 KI Business Modelle
42:45 ScaleAI
48:49 Devin Text To Code -
Interessante Stellen & Diskussionen aus dieser Folge sind:
Der Andreessen Horowitz Survey: https://a16z.com/generative-ai-enterprise-2024/
Wir diskutieren ab Minute 46 noch mal um die Sora Trainings Daten und das Trainieren von Modellen generell
Und im hinteren Drittel diskutieren wir darüber on Microsoft und Apple eigene Basis Modelle bauen werden...
00:00 Intro
01:00 StreetFighter LLM
04:22 PerplexityPro AGAIN
09:10 Umfrage a16z
14:50 Umfrage Teil2
20:32 Umfrage Teil3
30:46 Chatbots Teil4
36:45 Neue Mistral Version & Qwen
46:00 Trainieren von Modellen
50:30 Apple MM1
56:54 Apple & Claude3
01:00:32 Amazon & Anthropic -
Warum sind NVIDIA Grafikkarten eigentlich so gut? Warum spielt AMD keine Rolle? Was unterscheidet Croq zu NVIDIA? Warum sind Croq Beschleuniger schneller bzw. sind sie das überhaupt? -> All diese Fragen versuchen heute Christian, Arne und Stefan für euch zu beantworten. Reinhören!
Beste PR für Croq: https://wow.groq.com/hey-elon-its-time-to-cease-de-grok/
00:00 Intro
01:52 Warum führt NVIDIA bei AI
11:42 NVIDIA & AMD
17:48 Blackwell
24:46 Wem gehört die Zukunft
32:59 Croq als Wettbewerber
46:49 Energieverbrauch von Chips
49:05 Die Zukunft -
Wir arbeiten uns durch einen Handelsblatt-Artikel, der Aleph Alpha und Mistral vergleicht, und sind etwas überrascht über das Fazit desselben. Dann tauchen wir etwas technischer in das Mathe-LLM Orca ein, um dann wieder zu philosophieren über Chatbots als Psychiater mit dem PI-Chatbot, welcher Empathie hat.
00:00 Intro
07:22 Rabbit R1
00:11 Aleph Alpha vs Mistral AI
33:40 OrcaMath LLM
49:32 PI - Chatbot mit Empathy
57:30 Figure AI -
FEHLER KORRIGIERT! - Wir hatten aus versehen eine alte Folge hochgeladen!
Wir reden über Artificial General Intelligence. Dabei beantworten wir vor allem die Frage, was AGI ist. Zur Hilfe kommt uns da die Definition aus einem Paper von Google. Dennoch hinterfragen wir kritisch, ob man das überhaupt heute schon bauen kann und ob wir AGI bald erwarten können. Ebenso stellen wir die Frage, ob wir überhaupt AGI brauchen.
Google Definition von AGI: https://arxiv.org/pdf/2311.02462.pdf
00:00 Intro
02:16 Was ist AGI?
07:38 KI lernt selber
13:48 Führen LLMs zu AGI?
20:30 Ist Sora AGI?
25:21 Sam Altmans Definition von AGI
27:37 AGI Use Cases
38:28 KI Stromverbrauch
39:59 KI als große Gefahr
Folgt uns auf LinkedIn: https://www.linkedin.com/company/tensorraum-podcast -
Heute mit: Jannis Buchsteiner & Stefan Wiezorek
Alibabas Image AI Tool EMO: https://humanaigc.github.io/emote-portrait-alive/
Interessante Themen aus der Folge
Kann Sora Physik? Spoiler: Nein - Aber was kann das Welten Modell von Meta?
Jannis ist begeistert über das neue Image AI Tool von Alibaba - Stefan ist sich da nicht so sicher und ist dann doch eher bei Sora (trotz der Kritik der letzten Folge)
Claude 3 langweilt uns eher, wo bleiben die Modelle mit 2 Millionen Parametern?
Was erhofft sich Elon Musk aus der Anklage gegen OpenAI
Klarna zeigt einen der ersten stärkeren AI Use Cases in Deutschland
Und wir fragen uns, kann Apple Künstliche Intelligenz?
00:00 Intro
01:44 Kann Sora Physik?
06:10 EMO von Alibaba
13:15 Claude 3
23:26 Elon Musk vs OpenAI
38:29 Klarna chatbot im Kundenservice
45:15 Apple & AI, geht das? -
Wir reden über das besten Open Source Modell Mistral Au Large und warum es ein Match-Made-In-Heaven ist wenn Microsoft den Mistral Deal abschließt um dann festzustellen dass heimlich Alibaba mit dem wirklich besten Open Source Modell Qwen um die Ecke kommt. Jannis wirft eine smarte Hypothese ins Rennen dass die eigentliche Macht den Cloud Anbietern (AWS, Azure und Co gehört) und Arne sagt wir müssen viel öfter über den KI Energie Verbrauch reden.
00:00 Intro
06:59 Mistral & Microsoft Deal
17:14 Alibaba Model Qwen
28:45 Cloud Anbieter Exkurs
33:46 Ai Energieverbrauch
38:28 Croq, Nvidia & Co
47:48 Googles Bilder Thematik -
In der Welt der Künstlichen Intelligenz hat keine Nachricht so viel Aufmerksamkeit generiert wie die Ankündigung von OpenAIs Sora. Wir schauen uns Sora an und besprechen, was technisch dahintersteckt. Und warum wir glauben, dass es jetzt nicht so relevant ist, wie man glauben mag.
Und warum vor allem die Neuigkeiten zu OpenAIs Konkurrenten für die Google-Suche wesentlich relevanter sind, sowohl für den Markt als auch für die Technologie. Ebenso werfen wir einen kurzen Blick auf die Gedächtnisfunktion von OpenAI und warum auch diese eine weitere wichtige Komponente im Bereich der Künstlichen Intelligenz sein wird/ist.
00:00 Intro
01:40 Sora
12:00 Sora Beispiele
14:07 Text-To-Image
17:57 Sora Use-Cases
26:48 OpenAI Google Suche
41:55 OpenAI Memory -
Wir besprechen die wichtigsten Themen aus dem Januar 2024 im Bereich Künstliche Intelligenz!
Hier eine Übersicht
Das beste SLM
Phi2 von Microsoft ist öffentlich zugänglich
Warum Arne ein großer Fan von kleinen Modellen ist
Copilot Update & Deucalion
Microsoft arbeitet an eigenem Modell (Refinement von GPT?)
Starke Dall-e Verbesserungen im Copilot
Deepfake Betrug
20 Millionen USD Betrug mit gefakter Telco
Live Audio und Video gefaked
Nightshade Datenvergiftung
Warum Stefan Zweifel habt ob das wirklich funktionieren kann
Warum Arne glaubt dass es trotzdem funktionieren könnte
Multimodal in OpenSource Modellen
Wir driften ab und reden über Apples beste Innovation (nein es ist nicht die Apple Vision Pro^^)
Agents bei OpenAI
Warum Agents wirklich the Next Big Thing sind (Sora ist es nicht, dass in der nächsten Folge)
Braucht man wirklich einen Rabbit R1?
00:00:00 Intro
00:05:01 Das beste SLM
00:10:26 Copilot Update & Deucalion
00:19:37 Deepfake Betrug
00:26:52 Nightshade Datenvergiftung
00:33:38 Multimodal in OpenSource Modellen
00:42:20 Agents bei OpenAI
00:52:03 Googles Interne Ziele -
In der heutigen Episode diskutieren Jannis, Christian und Stefan über das Phänomen der Halluzinationen bei KI-Modellen. Sie ergründen, warum künstliche Intelligenz Schwierigkeiten hat, zwischen richtig und falsch zu unterscheiden, und wie es dazu kommt, dass KI manchmal Informationen erfindet.
Die Themen der Folge umfassen:
Den Einfluss von Halluzinationen und die Wichtigkeit, dieses Problem anzugehen.
Die Entstehung von Halluzinationen.
Methoden zur Vermeidung von Halluzinationen.
Die Frage, warum wir Halluzinationen nicht als das bezeichnen, was sie tatsächlich sind: Fehler.
Links aus der Folge:
Galileo Halluzination Index: https://huggingface.co/blog/leaderboards-on-the-hub-hallucinations
Arc Search (App aus dem Vorgespräch): https://apps.apple.com/us/app/arc-search/id6472513080 -
Im Tensorraum-Podcast diskutieren Jannis, Borge und Stefan über die Rolle der Künstlichen Intelligenz (KI) in der Arbeitswelt und welche Jobs besonders gefährdet sind. Während einige Berufe durch Automatisierung und Effizienzsteigerung bedroht scheinen, betonen sie auch die Chancen, die KI für neue Arbeitsplätze und die Unterstützung bestehender Jobs bietet. Sie argumentieren, dass KI nicht nur als Ersatz, sondern auch als Werkzeug zur Verbesserung der menschlichen Arbeit und zur Schaffung neuer Berufsfelder genutzt werden kann. Wird der Mensch eventuell demnächst das „Feature“, welches dich hervorhebt aus der Masse der KI-Tools?
Links aus der Folge:
Paper über den Arbeitsmarkt: GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models: https://ar5iv.labs.arxiv.org/html/2303.10130
Spiegel Artikel: https://www.spiegel.de/kultur/literatur/rie-kudan-japanische-literaturpreis-gewinnerin-benutzte-chatgpt-a-50da9589-9df2-4e65-a43a-564312b4301f -
In dieser Folge dreht sich alles um Hugging Face und die Welt der Open Source Modelle
Was steckt hinter Hugging Face
Wie profitieren Entwickler von Hugging Face und seinen Angeboten
Stefan hinterfragt die Nachhaltigkeit des Hugging Face Geschäftsmodells
Was bedeutet überhaupt Open Source bei Modellen?
Das sind einige der Themen, die wir in dieser kurzen Folge über Hugging Face diskutieren ;) -
In der fünften Episode unseres Podcasts “#5 Der Kampf der LLM Chatbots - Google vs OpenAI” tauchen wir tief in die Welt der Künstlichen Intelligenz ein. Wir vergleichen die Leistung von ChatGPT und Gemini und analysieren, was die Benchmarks bei Gemini bedeuten. Dabei werfen wir auch einen Blick auf mögliche Underdogs in diesem Rennen. Am Ende der Episode geben wir einige Empfehlungen für weitere spannende KI-Projekte.
-
Themen der Folge.
Wie sah die KI-Welt vor OpenAI aus (2012-2015)?
An welcher Stelle ist Google falsch abgeholt und wurde von OpenAI überholt?
Wie steht OpenAI heute dar im Vergleich zu anderen LLM's?
Achtung: Diese Folge ist stellenweise schon sehr "technisch". Zur Hilfe haben wir ein paar Begriffe hier in den Show Notes erklärt!
Word2Vec
Word2Vec ist ein Modell, das Wörter in numerische Vektoren umwandelt, um semantische und syntaktische Beziehungen zwischen Wörtern zu erfassen. Es basiert auf der Idee, dass Wörter, die in ähnlichen Kontexten vorkommen, in der Regel auch ähnliche Bedeutungen haben.
Recurrent Neural Networks (RNN)
Stell dir vor, du schaust dir einen Film an und versuchst, die Handlung zu verstehen. Du erinnerst dich an das, was du in den vorherigen Szenen gesehen hast, um zu verstehen, was in der aktuellen Szene passiert. Das ist im Grunde das, was ein Recurrent Neural Network (RNN) tut.
Attention is all you need / Transformer Technologie.
“Attention is All You Need” präsentiert die Transformer-Architektur, ein Modell für natürliche Sprachverarbeitung, das auf Aufmerksamkeitsmechanismen basiert. Diese Mechanismen ermöglichen es dem Modell, langfristige Abhängigkeiten und kontextuelle Beziehungen zwischen Wörtern zu erfassen. Im Vergleich zu traditionellen Modellen sind aufmerksamkeitsbasierte Modelle überlegen. - Visa fler