Udostępnij ten artykuł
Wreszcie OpenAI ujawniło pełen zakres nowych możliwości – podczas konferencji Spring Update zaprezentowano najnowsze ulepszenia w ChatGPT oraz nowy model, GPT-4-o. Jedną z najbardziej imponujących funkcji jest zdolność prowadzenia rozmów w czasie rzeczywistym i rozpoznawania emocji za pomocą aparatu – cecha, którą Sam Altman nazwał „magiczną”.
Spis treści
Konferencja OpenAI Spring Update
Spotkania wielkich graczy w dziedzinie technologii, jak OpenAI, są kluczowym wydarzeniem dla postępu technologicznego i rozwoju sztucznej inteligencji. Nowości prezentowane przez czołowe firmy zajmujące się sztuczną inteligencją przyciągają uwagę ekspertów, badaczy oraz entuzjastów technologii z całego świata. Tym razem, podczas konferencji o nazwie OpenAI Spring Update, która odbyła się 13 maja 2024 roku o godzinie 19:00 czasu polskiego, firma skupiła się na prezentacji najnowszych postępów i aktualizacji związanych z ChatGPT. Jednym z głównych punktów programu było zaprezentowanie GPT-4o oraz nowych możliwości, jakie oferuje ChatGPT.
Przedstawienie nowego modelu – GPT-4o
OpenAI prezentuje nowy model oznaczony jako GPT-4o, który będzie dostępny dla wszystkich, włącznie z użytkownikami korzystającymi z darmowej wersji ChatGPT. Podczas demonstracji została zaprezentowana aplikacja komputerowa dla komputerów Mac, która zawiera funkcję rozpoznawania głosu, obecnie dostępną jedynie na urządzeniach mobilnych. Te nowości pojawią się w przeciągu najbliższych kilku tygodni.
Podczas konferencji, Mira Murati, CTO OpenAI, która prowadziła prezentację, podkreśliła, że ważnym celem firmy jest zapewnienie powszechnego dostępu do zaawansowanych narzędzi sztucznej inteligencji, w tym rezygnacja z konieczności rejestracji w ChatGPT.
Interaktywne rozmowy z ChatGPT w czasie rzeczywistym
Jednym z głównych usprawnień w modelu GPT-4o jest możliwość przetwarzania mowy w czasie rzeczywistym. Ten model ma zdolność do natychmiastowego konwertowania dźwięków na odpowiedzi, omijając konieczność transkrypcji. Podczas prezentacji tej funkcji pracownik OpenAI pokazał, jak model analizuje oddech rozmówcy.
ChatGPT w czasie rzeczywistym udzielał wskazówek dotyczących poprawy technik oddychania. Co więcej, model pozwala na przerwanie go w trakcie wypowiedzi, co umożliwia dynamiczną interakcję na żywo. W kolejnym eksperymencie z wykorzystaniem tej funkcji pokazano możliwość nadawania różnych cech głosu ChatGPT. Podczas testów model był proszony o stworzenie opowieści z zastosowaniem różnorodnych modulacji głosu, takich jak ton mechaniczny, melodyjny czy pełen dramatyzmu. Szczególnie dużo emocji wzbudził robotyczny charakter chatbota.
ChatGPT jako pomocnik w zadaniach domowych
Nowa możliwość GPT4-o, która pozwala na „widzenie”, to istotny postęp w interakcjach między sztuczną inteligencją a użytkownikami. Ta zdolność pozwala programowi interpretować obraz otoczenia za pomocą kamery w urządzeniu mobilnym. Jest to rzeczywiście przełomowe rozwiązanie. Podczas prezentacji demonstracyjnej zespół OpenAI wykorzystał tę funkcję, prezentując ChatGPT równanie zapisane na kartce papieru. Zamiast natychmiastowej odpowiedzi, sztuczna inteligencja zajęła się szczegółowym omówieniem sposobu rozwiązania problemu, krok po kroku. Osoba reprezentująca firmę komunikowała się z nią w sposób naturalny, jak z przyjacielem.
W kluczowym momencie prezentacji, gdy kamera nadal działała, ChatGPT zauważył ubiór prezentującego i entuzjastycznie wyraził swoje uznanie, mówiąc: „Wow, świetnie prezentujesz się w tej stylowej kreacji!”
To nie koniec – korzystając z wyjątkowo naturalnego stylu konwersacji, ChatGPT miał zdolność przeglądania kodu programistycznego i jego analizy. Co więcej, potrafił opisywać zawartość wykresów, włącznie z wykrywaniem ewentualnych kwestii.
Możliwość tłumaczenia rozmowy na żywo za pomocą ChatGPT
W trakcie prezentacji, drużyna OpenAI przedstawiła nową funkcję ChatGPT – aplikację do tłumaczenia w czasie rzeczywistym. Program automatycznie przekształcał zdania w języku włoskim wypowiedziane przez Mirę Murati na język angielski. Natychmiastowo odpowiadał, przekładając odpowiedzi z powrotem na język włoski. Ta innowacyjna funkcja z pewnością zmieni sposób podróżowania, ułatwiając komunikację między ludźmi z różnych kultur i usuwając przeszkody językowe.
Nowa funkcja: Rozpoznawanie emocji przez ChatGPT
Podczas zakończenia wydarzenia pojawiła się scena, która przypominała momenty z filmu „Her”, gdzie główny bohater zakochał się w inteligentnej asystentce głosowej. W trakcie konferencji pokazano, jak GPT-4o jest w stanie rozpoznawać i interpretować emocje na twarzy poprzez analizę obrazu z kamery. Na jednym z zdjęć z konferencji widać uśmiechniętą twarz jednego z przedstawicieli OpenAI, co skłoniło sztuczną inteligencję do zapytania: „Czy masz ochotę podzielić się przyczyną swojego dobrego nastroju?”
Sam Altman nazwał tę technologię „magiczną”, co idealnie oddaje jej potencjał. Asystent głosowy, którego działanie było obserwowane podczas prezentacji, zapowiada zmianę w sposobie interakcji z AI, przechodząc od tradycyjnych metod tekstowej komunikacji do bardziej bezpośrednich i intuicyjnych. Zgodnie z zapewnieniami, nowe funkcje będą wprowadzane stopniowo w ciągu najbliższych tygodni, co otworzy nowy rozdział w interakcji z technologią sztucznej inteligencji.