Sora 2 padła. Co teraz z AI w produkcji wideo

Sora 2 padła. Co teraz z AI w produkcji wideo

Disney miał wpłacić w Sorę miliard dolarów. Dowiedział się o jej zamknięciu godzinę przed światem.

24 marca 2026 OpenAI ogłosiło na X, że aplikacja Sora idzie do zamknięcia. Dziś, 26 kwietnia, apka i strona przestają działać. API zostaje do września. Powodów podaje się kilka, ale dwa powtarzają się w każdej analizie: 15 milionów dolarów dziennie kosztów obliczeniowych i lawinowo rosnące pozwy o copyright.

Sora nie była eksperymentem dla geeków. Była produktem, który miał trafić do kampanii reklamowych. Disney to widział. CMO większych marek to widzieli. Część zaczęła nawet wpinać Sorę w workflow produkcyjny.

I nagle nie ma.

To co najgorsze w tej historii nie dotyczy Sory

Dotyczy obietnicy.

Przez ostatni rok narracja brzmiała tak: AI generuje filmy reklamowe za grosze, klasyczna produkcja umiera, kto się nie przesiądzie - przegra. Cytowali to founderzy startupów, agencje pisały to w deckach, ja słyszałem to na callach z klientami, którzy chcieli oszczędzić.

Konkret: Veo 3 od Google deklaruje cięcie kosztów produkcji wideo o 91%. Brzmi jak rewolucja. I jest, ale nie taka, jak ją sprzedają.

Bo te liczby pokazują koszt samej generacji obrazu. Nie pokazują reżysera, który napisze brief tak, żeby model cokolwiek zrozumiał. Nie pokazują dwudziestu iteracji, bo Veo nie trafiło w produkt z pierwszego promptu. Nie pokazują tego, że twoja konkurencja generuje to samo, z tych samych modeli, w tej samej estetyce.

Co naprawdę zostaje na rynku po Sorze

Trzy poważne narzędzia: Veo 3.1 od Google, Runway Gen-4 i Kling. Każde dziś lepsze od tego, co Sora 2 miała w wersji wyjściowej. Veo natywnie generuje 9:16 z dźwiękiem. Runway zachowuje konsystencję postaci między ujęciami. Kling robi krótkie klipy w jakości, której z dwóch metrów nie odróżnisz od kamery.

Ale każde z nich nadaje się do czegoś innego.

Veo świetnie ogarnia stylizowane spoty produktowe i koncepty wizualne. Beznadziejnie wygląda przy próbach prawdziwego dialogu. Runway dobrze radzi sobie z transformacjami i efektami, które kiedyś były domeną postprodukcji. Kling jest mocny w viralach, gdzie scena nie wymaga konkretnego produktu w konkretnym kontekście.

Żeby to nie było abstrakcyjne. Dla Dr. Oetker robimy digital ads. Jeden dzień zdjęciowy, food designer na planie, 4 ujęcia, gotowe bumpery na YouTube i Twitch. Gdyby ktoś chciał zrobić to samo Veo, czeka go dziesięć iteracji prompta na każde ujęcie, brak gwarancji że ciasto wygląda jak ICH ciasto, zero kontroli nad detalami opakowania.

Może kiedyś. Dziś nie.

Co to znaczy dla mniejszej firmy planującej reklamę w tym roku

Nie kupuj hype'u. To pierwsza rzecz.

Druga: nie kupuj też paniki. AI w wideo zostaje. Modele będą lepsze. Część rzeczy, których dziś nie umieją, za rok będą umiały. Ale "część" nie znaczy "wszystko".

Test, który robię z klientami pytającymi "może zrobimy to AI-em":

Czy w spocie ma być twój konkretny produkt, dokładnie taki jak wygląda w realu? Jeśli tak, AI prawdopodobnie nie da rady. Generatory ciągle halucynują detale, a klient zauważy w trzeciej sekundzie że butelka jest "jakaś nie taka".

Czy ma być twoja konkretna lokalizacja albo prawdziwy człowiek z marką na koszulce? Jeśli tak, znowu, AI nie tam.

Czy materiał ma być testowany w wielu wariantach pod performance, gdzie liczy się tempo iteracji a nie polish? Jeśli tak, AI to twój przyjaciel. Tu Veo czy Runway robi w jeden dzień to, co kiedyś wymagało tygodnia produkcji i drugiej takiej samej rundy z postprodukcją.

Trzy pytania. Tyle wystarczy, żeby wiedzieć od czego zacząć.

Lekcja, której Sora nauczyła branżę zamiast dostać miliard od Disneya

Przez ostatni rok widziałem jak klienci najpierw byli zafascynowani AI, potem rozczarowani, potem trochę przestraszeni że "wszyscy już to robią a my nie". Po Sorze ta dynamika się chyba uspokoi. Bo okazało się, że nawet ci, co mieli zostać liderami rynku, nie są w stanie tego utrzymać.

Disney swoich miliardów na Sorę nie wyda. Nie znaczy, że nie wyda ich na AI w wideo. Znaczy, że wyda je teraz z większą uwagą.

Tak samo powinien zachować się każdy, kto planuje reklamę w 2026. Nie "AI czy nie AI". Tylko "co konkretnie chcę osiągnąć, jaki mam materiał wejściowy i które narzędzie do tego pasuje".

Resztę zostaw tym, co sprzedają hype.

Robimy w Motion Pikczer i klasyczną produkcję, i hybrydy z AI, i czysto generatywne kampanie. W zależności od tego, co realnie pomoże klientowi. Jeśli zastanawiasz się gdzie w twojej kampanii AI ma sens, a gdzie zniszczy efekt, napisz - doradzę.

FAQ

Czy mogę używać Sory 2 do reklam po wyłączeniu apki?

API Sora 2 działa do 24 września 2026. Po tej dacie nic. Jeśli masz materiały wygenerowane w Sorze, wyeksportuj je teraz z sora.chatgpt.com/exports/me. Po 26 kwietnia konto i pliki znikają.

Co jest dziś najlepszą alternatywą Sory dla reklam?

Veo 3.1 od Google dla większości spotów produktowych i konceptów wizualnych. Runway Gen-4 dla efektów postprodukcyjnych. Kling dla short formów społecznościowych. Wybór zależy od typu materiału, nie od "który jest najlepszy". Każdy jest najlepszy w czymś innym.

Czy AI zastąpi klasyczną produkcję wideo?

Nie w 2026, prawdopodobnie nie w 2027. Zastąpi część zadań - testowanie wariantów, koncepty wizualne, social-first content bez konkretnych produktów. Nie zastąpi shootów z prawdziwym produktem, prawdziwym człowiekiem, w prawdziwej lokalizacji.

Źródła

Uwielbiam czarną kawę i minimalizm. Użytkowy design Dieter'a Rams'a i seriale Apple TV. Jak wpadnę w "rabbit hole" to zgłebiam temat do końca świata i jeden dzień dłużej. Z chęcią opowiem tu o wszystkim po trochu.