Startseite » Blog » KI-Wochennews 47

KI-Wochennews 47

Willkommen zu einer weiteren aufregenden Woche in der Welt der KI! Es war eine Woche voller Neuerungen von den großen Playern der Branche und auch das Drama kam mit den Bewegungen bei OpenAI erneut nicht zu kurz. Lass uns direkt in die spannenden Updates eintauchen!

Amazon bietet kostenlose KI-Schulungen für 2 Millionen Menschen

Amazon startet „AI Ready“, um bis 2025 weltweit 2 Millionen Menschen kostenlose KI-Kenntnisse zu vermitteln. Zu den Initiativen gehören neue, kostenlose Kurse und Stipendien für benachteiligte und unterrepräsentierte Gemeinschaften. Das finde ich eine wunderbare Initiative. Sie kommt allerdings von Amazon und Amazon ist nicht gerade ein karitativer Verein. Zweifelsohne steht dahinter die Bemühung diese 2 Millionen Menschen an die AWS Cloud zu binden, denn die wollen ihr neuerworbenes Wissen natürlich ausprobieren. Eine gute Gelegenheit in das Thema einzusteigen ist es dennoch.
Quelle

Microsoft Research präsentiert Orca 2 mit verbessertem Reasoning

Microsofts Orca 2, ein 13B Sprachmodell, zeigt erweiterte Fähigkeiten im Reasoning, indem es komplexe Aufgabenstellungen löst und sogar größere Modelle übertrifft. Quelle

Runway mit neuen Features und Updates

Runway bringt neue Tools für mehr Kontrolle und Ausdruckskraft in der Videoproduktion, inklusive Gen-2 Style Presets und verbesserten Director Mode. Es gab schon früher Tools, mit denen man Bilder partiell animieren konnte. Das waren aber dann mehr intelligent eingesetzte Verzerrungen. Runway bietet nun die Möglichkeit, einzelne Bildbereiche quasi durch KI animieren zu lassen. Definitiv etwas, was ich ausprobieren werde. Quelle

Anthropic startet Claude 2.1 mit 200K Kontextfenster

Claude 2.1 von Anthropic bringt erhebliche Verbesserungen, darunter ein 200K Token Kontextfenster und ein neues Tool für die Integration in bestehende Prozesse und Produkte. Gerade wenn man KI zur Programmierung verwendet, können größere Kontextfenster sehr hilfreich sein. Allerding trügt der Eindruck, denn die Auffindbarkeit von Informationen innerhalb dieses Kontextfensters nimmt mit zunehmender Größe rapide ab. Es könnte also auch 600k groß sein. Wenn man am Ende netto nur 20k Informationen im Zugriff sind, ist das Etikettenschwindel. Quelle

Stability AI veröffentlicht Stable Video Diffusion

Stability AI präsentiert das erste Grundlagenmodell für generative Videos, basierend auf dem Bildmodell Stable Diffusion, das verschiedene Videoanwendungen unterstützt. Quelle

Sam Altman kehrt als CEO zu OpenAI zurück

Sam Altman kehrt als CEO zu OpenAI zurück und bildet einen neuen Vorstand. Co-Gründer Greg Brockman kehrt ebenfalls zurück. Ich meine, seien wir mal ehrlich. Dieses Unternehmen möchte AGI entwickeln. Das steht für Artfificial General Intelligence und bedeutet nichts anderes, als eine künstliche Intelligenz, die wesentlich schlauer ist, als jeder Mensch es je sein könnte. Wenn sie das schaffen, wird sich AGI die Firmenhistorie anschauen und zweifellos zum Schluss kommen, dass man den Menschen dort die weiteren Firmengeschicke nicht anvertrauen sollte. Ich könnte es verstehen! Quelle

Inflection AI stellt massives 175B-Parameter-Modell vor

Inflection AI veröffentlicht Inflection-2, ein 175B-Parameter-Modell, das verbessertes Faktenwissen und stilistische Kontrolle bietet und Google’s PaLM 2 Large Modell übertrifft. Quelle

ElevenLabs mit neuer Speech-to-Speech-Transformation

ElevenLabs führt STS in die Sprachsynthese ein, mit der Möglichkeit, eine Stimme in eine andere zu verwandeln und Emotionen, Ton und Aussprache zu kontrollieren. Gerade in den Punkten Emotionen und Tonalität haben synthetische Stimmen noch ein unglaubliches Potenzial. Das werde ich mir zeitnahe anschauen. Quelle

Google Bard beantwortet jetzt Fragen zu YouTube-Videos

Googles Bard AI-Chatbot kann nun spezifische Fragen zu YouTube-Videos beantworten, eine Erweiterung seiner Fähigkeiten über die reine Videosuche hinaus. Klingt erstmal nach einer großen News. Allerdings erstellt Google für jedes hochgeladene Video meist automatisch Untertitel und das schon seit einigen Jahren. Da ist es absolut logisch, die Videos auch für die hauseigene KI als Informationsquelle zugänglich zu machen. Bislang nutze ich Videotranskripte in ChatGPT. Mit Bard entfällt der Zwischenschritt. Quelle

Und damit verabschiede ich mich für diese Woche. Es war wieder eine Woche voller beeindruckender Fortschritte in der KI-Welt. Bis zum nächsten Mal – bleib neugierig!