AMD TressFX, czyli moje prośby zostają wysłuchane

30
Mieszko Krzykowski
AMD TressFX, czyli moje prośby zostają wysłuchane

Dopiero co pisałem o tym, że dzięki PlayStation 4 w grach w końcu powinniśmy zacząć spotykać o wiele bardziej realistyczne włosy, a dziś AMD postanowiło mi sprawić niespodziankę sporego kalibru i pokazać, że wcale nie trzeba z tym czekać do pojawienia się na rynku nowej konsoli.

O TressFX zaczęto mówić już w ubiegłym tygodniu, bo właśnie wtedy panowie z AMD rozpoczęli interesującą mini-kampanię reklamową, kojarzącą się z szamponem do włosów. Dziś już wiadomo, że chodzi o nowego Tomb Raidera i nowe włosy Lary Croft, które mogą jej otworzyć drogę do reklam Loreal, tak jak swego czasu wiadomo co otworzyło drogę Triss Merigold do Playboya.

Wystarczył mi rzut okiem na zaprezentowane zrzuty ekranu i już czuję się podekscytowany:

TressFX Lara 2TressFX Lara 1

No w końcu! Czas leciał, animacja twarzy i ruchów postaci rozwijała się (mmmm... L.A. Noire), a włosy... stały. Dosłownie i w przenośni. Niby drobny detal, ale takie drobne detale mają spory wpływ na ostateczny realizm sceny. Czekałem na to od dawna, a szczególnie mocno od momentu zaprezentowania przez Nvidi'ę swojego dema technologicznego. Jednak znowu okazało się, że droga od dema technologicznego do kodu działającego w grze potrafi być bardzo kręta i po drodze można zostać wyprzedzonym przez konkurencję, niczym w bajce o żółwiu i zającu. Choć w pewnym sensie Nvidia oddała walkę walkoverem, bo gry FPP, albo kolejne części przygód Batmana, niezbyt się nadają do demonstrowania zaawansowanej symulacji czupryny głównego bohatera. Niby była jeszcze Alicja, ale... ona chyba nie z takich, które dbają o wygląd ;)

batmanW razie czego marketingowcy Nvidi'i mogą powiedzieć, że oni mieli realistyczne fryzury już w Batmanie, tylko żeby je zobaczyć trzeba skorzystać z wyobraźni ;)

Wróćmy jednak do faktów. Nazwa TressFX odnosi się do algorytmu przygotowanego przez programistów AMD i Crystal Dynamics, który jest wykorzystywany w najnowszym Tomb Raiderze do upiększenia fryzury głównej bohaterki. Jej fryzura składa się teraz z mnóstwa zależnych od siebie kosmków, które wchodzą w interakcję z otoczeniem, wiatrem i zachowują się inaczej w zależności od tego... czy są suche, czy mokre. Całość korzysta z DirectCompute, więc efekt ten będzie dostępny również dla posiadaczy kart GeForce. Z tego co rozumiem, to tuning przeszły jedynie włosy Lary i podobnych dodatków nie zaznamy u pozostałych postaci występujących w grze, co jest dość zrozumiałe ze względu na wydajność i czas pracy artystów, którzy musieliby dorabiać dodatkowe modele postaci.

amd_tressfx_1

No właśnie, wydajność. Jeśli dobrze kojarzę, to będzie to pierwsza gra, w której będzie można porównać ze sobą wydajność kart AMD i Nvidi'i z włączonym jakimś efektem fizycznym liczonym przez GPU. Niby wcześniej było coś w Cywilizacji 5, bo tam DirectCompute był wykorzystywany przy wyświetlaniu ekranów z liderami nacji, ale to nie był najważniejszy i najbardziej wymagający element tego tytułu. Bardzo mnie zastanawia jak duży będzie wpływ tych wybajerzonych włosów na wydajność i relacje między układami z przeciwnych obozów. Bardzo ważne będzie to jak szybko dana architektura potrafi się przełączać między kontekstami, bo GPU nie potrafi jednocześnie wykonywać obliczeń związanych z grafiką i GPGPU (nawet jeśli chodzi o DirectCompute), więc przy renderowaniu każdej klatki animacji będzie musiał oddzielnie poświęcić trochę czasu na GPGPU i obraz, a takie ciągłe przełączanie się samo w sobie jest bardzo „kosztowne”. Zapowiada się uczta dla oczu i bardzo ciekawy benchmark.

A no i jeszcze jedno. Crystal Dynamix należy do Square Enix. A Square Enix tworzy pewną popularną serię gier konsolowych, w której bohaterowie często mają bardzo bujne fryzury. Realistyczne włosy w najnowszym Final Fantasy na PS4? Jest to bardziej prawdopodobne niż mi się wydawało :)

final-fantasy-xiiiFajne włosy nie tylko w trailerach do kolejnych Final Fantasy? Yes, please :)

Oceny (26)
Średnia ocena
Twoja ocena
Ationx (2013.02.27, 10:30)
Ocena: 6
Bardzo dobrze, że coś takiego będzie. Niby szczegół ale cieszy. Włosy zawsze były olewane przez twórców gier, piękne otoczeni, piękne ubrania a włosy do niczego. Przykład naszego rodzimego Wiedźmina 2, tekstury zrobione super a włosy się bujały jak jakieś posklejane kudły, które w życiu wody nie widziały.
Son (2013.02.27, 11:44)
Ocena: 0
Ja zawsze jak ogladalem rendery z FF'ów to nie moglem sie nimi nacieszyc, takie piekne. Grafika coraz bardziej do przodu, moze za pare lat doczekamy sie w grze grafiki na poziomie renderow z FF-X :)
No i mam kolejny powod by kupic nowego TR'a. Nie ma to jak powiewajace wlosy mlodej Lary :)
Ale patrzac na screena mialem nadzieje na wiecej info o FF w tym poscie ^_^
mbrzostek (2013.02.27, 12:03)
Ocena: 2
Całość korzysta z DirectCompute, więc efekt ten będzie dostępny również dla posiadaczy kart GeForce.

The way progress is meant to be made :)
Edytowane przez autora (2013.02.27, 12:04)
s0d (2013.02.27, 12:17)
Ocena: 1
Technologia ciekawa szkoda tylko że później gracze będą płakali że w grach nie poprawia się grafika. Dlaczego? Bo gpu przyjmują coraz więcej obliczeń innych niż samo renderowanie grafiki,mamy np przeniesione obliczenia fizyki i jak widać rozrastają się a w gpu nigdy jeszcze nie mieliśmy nadwyżki mocy. Więc dorzucanie kolejnych obliczeń przez TressFX na pewno ograniczy jakość renderowanej grafiki w grze w której będzie to zastosowane. Ew. będzie wymagało hi endowego sprzętu.
gagex (2013.02.27, 12:27)
Ocena: 4
Włosy włosami, ale co z cyckami? Co z największym atutem serii??
A tak serio, w wiedźminie 2 nie zerkałem, ale w jedynce, te włosy przenikające przez inne tekstury... Moim zdaniem to nie drobiazg, bo w wielu tytułach one się pojawiają i tak jak to miało miejsce w wieśku, nieco psuło dobry jak na tamte czasy silnik
Opson6667 (2013.02.27, 12:40)
Ocena: 1
A to rusałka NVIDII nie miała takich włosów?

EDIT. Nie rusałka, tylko Adrianna http://www.nvidia.pl/coolstuff/demos#!/adrianne
Edytowane przez autora (2013.02.27, 12:48)
Dominic6 (2013.02.27, 12:48)
Ocena: -1
W dupie mam włosy - niech się w końcu zajmią fizyką !
miekrzy (2013.02.27, 12:50)
Ocena: 11
Niestety chyba każdy ma ;)
HDR'o (2013.02.27, 12:52)
Ocena: 5
Lasarus (2013.02.27, 12:30)
Na kartach nvidii też to będzie działać, czy amd ma to na wyłączność?

Przecież nawet w tekscie masz odpowiedź na pytanie :kwasny:
ArcziR2D2 (2013.02.27, 13:10)
Ocena: -1
Fajnie to wygląda ale to tylko niewielki szczegół na który większość i tak pewnie nie zwróci uwagi. No i jeszcze wpływ na wydajność...
Caesum (2013.02.27, 13:14)
Ocena: -2
Tomb... 'Rider'?
Opson6667 (2013.02.27, 13:30)
Ocena: 2
miekrzy (2013.02.27, 12:50)
Niestety chyba każdy ma ;)


Nie no, są tacy co golą :)
robgrab (2013.02.27, 13:52)
Ocena: 0
Wszędzie są tylko zdjęcia, czemu nie ma żadnych filmów? Przecież takie statyczne włosy to żadna sztuka zrobić, niech pokażą jak to się na żywo zachowuje.
kretos (2013.02.27, 14:00)
Ocena: 0
Twarz Lary z tych screenów w niczym nie przypomina wcześniejszych - ma jakąś taką azjatycką twarz. Dlaczego?
Opson6667 (2013.02.27, 14:18)
Ocena: 0
kretos (2013.02.27, 14:00)
Twarz Lary z tych screenów w niczym nie przypomina wcześniejszych - ma jakąś taką azjatycką twarz. Dlaczego?


A dlaczego w filmach XXX królują azjatki? Bo europejki i amerykanki się przejadły :) Nawet James Bond już nie wygląda europejsko
Edytowane przez autora (2013.02.27, 14:19)
tomaster (2013.02.27, 14:21)
Ocena: 0
kretos (2013.02.27, 14:00)
Twarz Lary z tych screenów w niczym nie przypomina wcześniejszych - ma jakąś taką azjatycką twarz. Dlaczego?


Bo jest odmłodzona?
dynamic (2013.02.27, 14:56)
Ocena: 0
A czy coś wiadomo na jakich vga to będzie działać ?
miekrzy (2013.02.27, 14:57)
Ocena: 0
Na pewno na wszystkich obsługujących DirectX 11.
pila (2013.02.27, 14:59)
Opson6667 (2013.02.27, 12:40)
A to rusałka NVIDII nie miała takich włosów?

EDIT. Nie rusałka, tylko Adrianna http://www.nvidia.pl/coolstuff/demos#!/adrianne
Chyba raczej nie ;)

http://www.youtube.com/watch?v=OF3yv6pfHPs
Opson6667 (2013.02.27, 15:13)
Ocena: 0
pila (2013.02.27, 14:59)
Opson6667 (2013.02.27, 12:40)
A to rusałka NVIDII nie miała takich włosów?

EDIT. Nie rusałka, tylko Adrianna http://www.nvidia.pl/coolstuff/demos#!/adrianne
Chyba raczej nie ;)

http://www.youtube.com/watch?v=OF3yv6pfHPs
O kurde, ale ją sprytnie uczesali do tego demka :D Wydawało mi się że coś tam jednak było, ale to jednak nie to demo
halflife2004 (2013.02.27, 15:19)
Ocena: 1
O tym że to będzie dostępne także na kartach NV pisałem przedwczoraj i że wymagana będzie jedynie karta zgodna z DX11, to ludzie się dziwili czemu nie jest to ekskluzywne dla GPU od AMD. Nie jest, ale możliwe że na kartach AMD i tak będzie to działać szybciej. Zobaczymy.

Najważniejsze jest to, że jest kolejny krok w dodatkowym elemencie graficznym, który będzie miejmy nadzieję wykorzystywany już w kolejnych grach.

Oby nie skończyło się to tylko na jednej grze jak wcześniej CUDA i woda w Just Cause 2.
Silencer_pl (2013.02.27, 15:30)
Ocena: -1
Żarty, żartam panie redakotrze o Batmanie, ale to chyba nikt o tym demie to nie pamięta?

http://www.geforce.com/games-applications/...fermi-hair-demo
miekrzy (2013.02.27, 15:32)
Ocena: 0
Przecież napisałem w tekście 'Czekałem na to od dawna, a szczególnie mocno od momentu zaprezentowania przez Nvidi'ę swojego dema technologicznego.'. Tak, tego dema technologicznego. A jakbyś kliknął na link w pierwszym zdaniu artykułu, to byś zauważył, że w poprzednim swoim wpisie pisałem o tym demie :)
Silencer_pl (2013.02.27, 15:34)
Ocena: 0
Uprzejmie przepraszam i zwracam honor :)
miekrzy (2013.02.27, 15:39)
Ocena: 0
Już nie przesadzajmy z tym oficjalnym tonem ;)
Adi-C (2013.02.27, 15:53)
Ocena: 0
bo GPU nie potrafi jednocześnie wykonywać obliczeń związanych z grafiką i GPGPU (nawet jeśli chodzi o DirectCompute), więc przy renderowaniu każdej klatki animacji będzie musiał oddzielnie poświęcić trochę czasu na GPGPU i obraz, a takie ciągłe przełączanie się samo w sobie jest bardzo „kosztowne”

Ciekawie, bo pojawiła się plota, z raczej dobrego źródła
http://www.vgleaks.com/orbis-gpu-compute-q...-and-pipelines/
że modyfikacja układu w ps4 będzie pozwalała na robienie obu rzeczy jednocześnie. Do tego brak sterownika itp. Może być ciekawie.
miekrzy (2013.02.27, 16:04)
Ocena: 0
Hmm, faktycznie. To miałoby sporo sensu i dałoby AMD już na starcie sporą przewagę w tego typu sytuacjach. No i widać, że AMD faktycznie bardzo zależy na pchaniu idei APU do przodu: HSA, możliwość liczenia z różnych kontekstów jednocześnie. Może jednak ich pomysł faktycznie miał sens...
Adi-C (2013.02.27, 16:35)
Ocena: 0
No sens najpewniej ma, w końcu na logikę żadnych zalet utrzymywania rozdzielonych cpu-gpu nie ma, szczególnie że gpu wiele rzeczy liczy efektywniej niż cpu- fizyka na ten przykład właśnie. Toteż ich połączenie może tylko i wyłącznie pomóc we współpracy obu układów, skoro już wiemy że tej współpracy chcemy.
Np. dice w kółko mówiło że wiele rzeczy chcą przerzucać na gpu, ale architektura pc im to ogranicza, twierdzili że to czego potrzebują to właśnie- fusion.

Inna sprawa że dopóki na pc będzie osobno cpu-gpu, to nie wiem czy będziemy na dużą skalę widzieli efekty tego połączenia w grach (w konsolowych exach to co innego...)- bo co z tego że w konsolach będzie apu, skoro na pc grafika będzie nadal na 'żalowej' szynie pci-e, i tu nie da się szybko z takim gpu współpracować... A grę na pc też fajnie wydać.
Niby na pc można użyć do fizyki tego małego gpu które jest w apu, a graficzną stroną zajmie się duże gpu po pci-e. Tylko teraz jakie cuda sterownikowe powychodzą- w końcu inne gpu w procu intela, inne w amd, do tego dedykowana grafa takiej a takiej firmy itp.
A jak znam gpu intela... :E ile z tym będzie problemów...
*Konto usunięte* (2013.02.27, 19:43)
Ocena: 0
miekrzy (2013.02.27, 16:04)
Hmm, faktycznie. To miałoby sporo sensu i dałoby AMD już na starcie sporą przewagę w tego typu sytuacjach. No i widać, że AMD faktycznie bardzo zależy na pchaniu idei APU do przodu: HSA, możliwość liczenia z różnych kontekstów jednocześnie. Może jednak ich pomysł faktycznie miał sens...
No pisałem właśnie na labie o tym, AMD pchając GPGPU do gier wbije szpileczki NV...
Bo jak masz np. na GF-ie 50FPSów, a Radeonie 70FPSów... to będzie widział użytkownik...
... Jednak chyba wciąż lepszym rozwiązaniem jest APU+dGPU.

Zaloguj się, by móc komentować