Markteinführung der neuen Apple Headgear, Google AI-Tools und GPT-4

Apples Mixed-Reality-Headset feiert Premiere auf der WWDC 2023

Neusten Informationen von Bloomberg zufolge wird Apple sein seit Langem erwartetes Mixed-Reality-Headset auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellen, welche traditionell im Juni 2023 stattfindet.

Der Termin für die Präsentation wurde aufgrund technischer Herausforderungen bereits mehrfach verschoben. Ursprünglich für das Frühjahr geplant, wird es nun auf der WWDC angekündigt, bevor es voraussichtlich Ende 2023 in den Handel kommt.

Es wird angenommen, dass das Headset, intern angeblich als „Reality Pro“ bezeichnet, ein sehr leistungsstarkes Gerät sein wird, das einer Skibrille ähnelt und 3D-Inhalte darstellen kann. Es soll über zahlreiche Funktionen verfügen, darunter fortschrittliches Hand-Tracking, die realistische Darstellung von FaceTime-Teilnehmern, eine digitale Krone zur Steuerung der virtuellen Realität und vieles mehr.

Aktuellen Berichten zufolge plant Apple, das Headset für rund 3.000 US-Dollar zu verkaufen, was es zum bisher teuersten tragbaren Produkt des Unternehmens machen würde.

Wie allgemein bekannt ist, können sich Veröffentlichungstermine solcher bahnbrechenden Produkte ändern, aber Apple hofft diesmal, das Produkt bis Ende 2023 auf den Markt bringen zu können. Bei einem reibungslosen Ablauf wird das Apple MR-Headset voraussichtlich auf der WWDC international vorgestellt und könnte dann Ende 2023 in den Geschäften erhältlich sein.

Es wird erwartet, dass Apples Mixed-Reality-Headset nach seiner Markteinführung möglicherweise nicht sofort die gleiche Popularität wie andere Apple-Produkte erreichen wird. Dennoch wird dem Apple-Headset von vielen Technologieexperten großes Potenzial zugeschrieben, und es könnte in naher Zukunft zu einem wichtigen Umsatzbringer für Apple werden.

Konkurrierende Unternehmen wie Microsoft und Alphabet investieren Milliarden von Dollar in die Entwicklung und Implementierung von KI-Technologien, um in verschiedenen Branchen Marktanteile zu gewinnen.

Als Antwort auf ChatGPT von OpenAI (in das Microsoft Milliarden investiert hat) hat die Google-Muttergesellschaft Alphabet einen KI-Dienst namens Bard AI gestartet, der auf der LaMDA-Technologie basiert.

Google hat kürzlich eine Reihe von KI-Integrationen angekündigt, die es den Workspace-Produkten ermöglichen sollen, durch maschinelles Lernen Text und Grafiken zu generieren. Zukünftige KI-Funktionen für Google Workspace-Anwendungen wie Google Docs, Gmail, Sheets und Slides wurden angekündigt.

Zu diesen Funktionen gehören:

  • Neue KI-gestützte Optionen in Google Docs für Brainstorming, Zusammenfassungen und die Erstellung von Inhalten.
  • Die Fähigkeit von Gmail, anhand von Stichpunkten ganze E-Mails zu entwerfen.
  • Die Möglichkeit von Google Slides, KI-generierte Bilder, Audiodateien und Videos zur Veranschaulichung von Präsentationen zu nutzen.

Das Unternehmen demonstrierte, wie Cloud-Kunden KI nutzen können, um E-Mails an Kollegen zu versenden, Präsentationen und Verkaufsmaterialien zu erstellen und Notizen während Besprechungen anzufertigen. Durch die Veröffentlichung einiger zugrundeliegender KI-Modelle können Entwickler nun Anwendungen auf Basis der Google-Technologie erstellen.

Nach der Veröffentlichung von ChatGPT im letzten Jahr und der Einführung der Chatbot-basierten Suchmaschine Bing von Microsoft im Februar 2023 hat Google mit einer Reihe von KI-Updates seine Entschlossenheit unter Beweis gestellt, die Konkurrenz im neuen KI-Wettlauf zu überholen.

Eine ausgewählte Gruppe von „vertrauenswürdigen Testern“ in den USA wird in diesem Monat Zugriff auf mehrere neue KI-Funktionen haben. Google gibt an, dass diese und andere Funktionen im Laufe des Jahres für die Öffentlichkeit zugänglich gemacht werden sollen, ohne jedoch ein genaues Datum zu nennen.

OpenAI stellt GPT-4 vor – Eingabe von Text und Bildern möglich

OpenAI hat die neueste Version GPT-4 in seinem Forschungsblog veröffentlicht. Laut dem Bericht ist GPT-4 ein umfangreiches multimodales System, das Bild- und Texteingaben verarbeiten und dabei Textausgaben generieren kann.

Nach monatelangen Gerüchten und Spekulationen hat OpenAI endlich GPT-4 enthüllt, eine bedeutende Weiterentwicklung in der Fähigkeit zur Problemlösung.

OpenAI beschreibt GPT-4 als „innovativer und kollaborativer als je zuvor“ und „präziser bei der Bewältigung schwieriger Situationen“. Obwohl es sowohl Text- als auch Bildeingaben verstehen kann, werden ausschließlich Textantworten erzeugt.

Laut OpenAI hat GPT-4 ein sechsmonatiges Sicherheitstraining absolviert, bei dem festgestellt wurde, dass es in internen Tests „um 82 % weniger wahrscheinlich auf Anfragen nach eingeschränkten Inhalten antwortete“ und „um 40 % häufiger sachliche Antworten als GPT-3.5 gab“.

In einem informellen Gespräch deutete OpenAI an, dass es einen „feinen“ Unterschied zwischen GPT-4 und seinem Vorgänger GPT-3.5 gibt (GPT-3.5 ist das Modell, das ChatGPT antreibt). Sam Altman, CEO von OpenAI, erklärte, dass GPT-4 „immer noch unvollkommen und immer noch eingeschränkt“ sei und fügte hinzu, dass es „beim ersten Gebrauch bemerkenswerter erscheine als nach längerer Nutzung“.

Die Systeme haben weiterhin mit vielen bekannten Problemen zu kämpfen. So sind sie in realen Situationen oft weniger effektiv als Menschen und erreichen auf vielen beruflichen und akademischen Ebenen nur das Niveau von Menschen, warnt OpenAI.

Die Öffentlichkeit kann über ChatGPT Plus, die kostenpflichtige Mitgliedschaft von OpenAI für 20 US-Dollar pro Monat, die auch Microsofts Bing-Chatbot unterstützt, auf das aktualisierte GPT-4 zugreifen. Es wird außerdem als API für Entwickler verfügbar sein.