Str 19 z 40 |
odpowiedz | nowy temat | Regulamin |
NikolaTesla |
Post #1 Ocena: 0 2013-02-21 18:23:18 (12 lat temu) |
 Posty: 419
Z nami od: 01-07-2011 Skąd: Mamucium, Britannia |
Cytat:
2013-02-21 17:53:02, united4ever napisał(a):
nie wiem , nie znam się 
Ja również, ja tylko przekonywująco udaję ;]
Cytat: no dobra , w takim razie może jakieś inne rozwiązanie .
Na przykład coś do "cachowania" w domu.
Karty graficzne dzisiaj mają takie coś. Bufor, który trzyma wyrenderowane klatki i karmi monitor najnowszymi klatkami lub ich fragmentami. Tylko trzeba to robić bardzo szybko, bo .. to gry 3d a nie film.
I tak trzeba będzie renderować w domu z powodu network latency. Za 5 lat będziesz mieć znacznie bardziej przepustowy internet - tego chce rynek konsumenta. ISP Reklamują się ofertami przepustowości, nie kto ma ile pingu do serwerów wschodniego wybrzeża USA. Konsumenci którzy tak pchnęli rynek smartfonów chcą innych rzeczy.
Za 5 lat 4k będzie nowym 1080p z całą masą idących za tym nowych problemów technicznych. Może nawet rozwiązania typu Oculus wypalą i będzie jakaś alternatywa dla tv, monitorów i projektorów.
Cytat: Jednak wielkie firmy zaczynają inwestować w "chmure" a to coś znaczy.
Lekkie gry dla urządzeń bardziej mobilnych niż domowy desktop. Ten segment się rozwija, to idą za tym w nadziei na jakieś pieniądze.
Cytat: ps
to Twój sprzęt ?
Nie, to karty które będzie można kupić za kilka miesięcy (a nawet jedna z nich jest kilka razy wydajniejsza od PS4, które nie będzie dostępne do przyszłego roku. Czas zacząć oszczędzać ;]
---------------
|
 
|
 |
|
|
marklar666 |
Post #2 Ocena: 0 2013-02-22 11:33:00 (12 lat temu) |
 Posty: 1225
Z nami od: 20-03-2008 Skąd: London |
Cytat:
2013-02-21 17:43:34, NikolaTesla napisał(a):
To jest w stanie ruszyć każdy tytuł i każde tech-demo z wszystkimi możliwymi efektami w czterech megapikselach rozdzielczości.
Hardware hardwarem, ale przydalby sie jeszcze soft ktory to wykorzysta. Dzisiaj gry dalej maja problemy z wykorzystaniem 2 kart graficznych czy nawet kilku procesorow(rdzeni). Nie mowiac juz o tym, ze wiekszosc to dalej 32bit aplikacje ktore nie potrafia zaalokowac wiecej niz 2GB ramu. [ Ostatnio edytowany przez: marklar666 22-02-2013 11:33 ]
|
 
|
 
|
|
relly |
Post #3 Ocena: 0 2013-02-22 16:13:19 (12 lat temu) |
 Posty: 342
Z nami od: 01-01-1970 |
Cytat:
2013-02-21 17:53:02, united4ever napisał(a):
/.../
Jednak wielkie firmy zaczynają inwestować w "chmure" a to coś znaczy .
/../
to znaczy tylko tyle ze ktos taka (byc moze błedna) decyzje podjał
1.swego czasu motorola wymysliła irydium , umiesciła na orbicie bodajrze 66 satelitów i projekt padł..bo nikt nie przewidział takiego rozwoju sieci GSM
2.dlaczego SMS ma 160 znaków ? bo tak ktos umiescił to w standardzie chciciaz tych znaków mogło by byc z 1000 no ale kto by sie spodziewał ze majac telefon bedziesz chciał pisac
|
 
|
 |
|
clockwork_orang |
Post #4 Ocena: 0 2013-02-22 16:14:33 (12 lat temu) |
 Posty: 10572
Z nami od: 28-06-2007 |
soft jest, brakuje CPU i GPU...
|
 
|
 |
|
krakn |
Post #5 Ocena: 0 2013-02-22 16:32:33 (12 lat temu) |
 Posty: 40201
Z nami od: 25-06-2007 Skąd: Caterham |
Cytat:
2013-02-22 16:13:19, relly napisał(a):
1.swego czasu motorola wymysliła irydium , umiesciła na orbicie bodajrze 66 satelitów i projekt padł..bo nikt nie przewidział takiego rozwoju sieci GSM
wcale nie padła, szału nie ma, jkość połączenia jak w latach 80tych.
Ceny za dzwonienie i odbieranie są ogromne, stąd też mają swojego klienta.
Już wiele razy zapowiadano że będą spalać satelity, ale nadal wszytko działa.
Niezastąpione są na oceanie i wyprawach, cz to na pustynie czy w wysokie góry.
Ekipy ratownicze też mają telefony satelitarne, w czasie żywiołów, zwykła telefonia po prostu zawodzi.
Cytat:
2.dlaczego SMS ma 160 znaków ? bo tak ktos umiescił to w standardzie chciciaz tych znaków mogło by byc z 1000 no ale kto by sie spodziewał ze majac telefon bedziesz chciał pisac
nadal 1 sms to 160 znaków, tyle że oprogramowanie klei smsy.
Wtedy był to kompromis, między wystarczającą ilością znaków by przesłać "telegram" a kosztem przesłania takiej ilości danych.
Na początku przesłanie wiadomosci tekstowej, było bardzo dużym obciążeniem dla systemów przesyłowych.
Po prostu niesamowicie obciążały przepustowość zajmując miejsce danych głosu, gdzie jak wiemy opóźnienia i błędy w transmisji są niemile słyszane Liczy się czas który żyjemy dla kogoś, reszta to czas śmieć.
|
 
|
   
|
|
|
NikolaTesla |
Post #6 Ocena: 0 2013-02-22 17:59:56 (12 lat temu) |
 Posty: 419
Z nami od: 01-07-2011 Skąd: Mamucium, Britannia |
Cytat:
2013-02-22 11:33:00, marklar666 napisał(a):
Hardware hardwarem, ale przydalby sie jeszcze soft ktory to wykorzysta. Dzisiaj gry dalej maja problemy z wykorzystaniem 2 kart graficznych czy nawet kilku procesorow(rdzeni). Nie mowiac juz o tym, ze wiekszosc to dalej 32bit aplikacje ktore nie potrafia zaalokowac wiecej niz 2GB ramu.
Tak może było dawniej.
Żadna z ostatnich gier w jaką grałem nie miała problemów z wykorzystaniem więcej niż jednego GPU. Czasem spotyka się problemy z synchronizajcą (microstuttering) n.p. FarCry3 + crossfire, ale to już rzadkość.
Większość gier ma bottleneck na grafice, są jednak takie, w których procesor ma więcej pracy. Te nie mają problemu z wykorzystywaniem 6, 8 i więcej rdzeni (Borderlands 2, Skyrim, Crysis 3, etc.). Developerzy Battlefield 3 utrzymują, że jest w stanie wykorzystać dowolną ilość rdzeni ;]
FarCry 3 był pierwszą produkcją, która wysyciła przepustowość pci-e 2.0 x 16. Nadal nie mogę zagrać w mododwany i dotweakowany Skyrim tak, jak chcę - nie ma wystarczająco dobrych kart graficznych na rynku (może nadchodząca seria Titan to zmieni). Żadna karta z jednym procesorem graficznym nadal nie jest w stanie (2 lata od premiery) dać radę z Metro 2033 w 1600p/ultra, nowy "Crysis" standard.
Włączysz efekty z nowego directX-a (teselacja, particle porn ^^ ), ambient oclusion, lepszy antialiasing (jest ich mnóstwo), downsampling z renderowanej wyższej rozdzielczości niż monitor obsługuje - i nagle zaczyna brakować mocy w sprzęcie. [ Ostatnio edytowany przez: NikolaTesla 22-02-2013 18:01 ] ---------------
|
 
|
 |
|
clockwork_orang |
Post #7 Ocena: 0 2013-02-24 13:57:42 (12 lat temu) |
 Posty: 10572
Z nami od: 28-06-2007 |
a ja mam zagwozdke pod skt 1155...
na poczatku dosc mocno stawialem na i5-3570k, ale potem wpadl mi w oko Xeon e3-1230 v2.
podstawowe zestawienie wypada na korzysc Xeon'a, ale czy faktycznie bedzie lepszy w codziennym zastosowaniu? [ Ostatnio edytowany przez: clockwork_orange 24-02-2013 13:58 ]
|
 
|
 |
|
NikolaTesla |
Post #8 Ocena: 0 2013-02-24 14:22:26 (12 lat temu) |
 Posty: 419
Z nami od: 01-07-2011 Skąd: Mamucium, Britannia |
Cytat:
2013-02-24 13:57:42, clockwork_orange napisał(a):
a ja mam zagwozdke pod skt 1155...
na poczatku dosc mocno stawialem na i5-3570k, ale potem wpadl mi w oko Xeon e3-1230 v2.
podstawowe zestawienie wypada na korzysc Xeon'a, ale czy faktycznie bedzie lepszy w codziennym zastosowaniu?
Dla normalnego człowieka - nie będzie* (3.3 vs 4.7 GHz, checkmate),
ci nienormalni i tak wezmą coś innego.
* - chyba, że idzie się w jakiś low-power small form factor, wtedy - kto wie. [ Ostatnio edytowany przez: NikolaTesla 24-02-2013 15:17 ] ---------------
|
 
|
 |
|
clockwork_orang |
Post #9 Ocena: 0 2013-02-24 15:17:37 (12 lat temu) |
 Posty: 10572
Z nami od: 28-06-2007 |
Cytat:
2013-02-24 14:22:26, NikolaTesla napisał(a):
Dla normalnego człowieka - nie będzie (3.3 vs 4.7 GHz, checkmate),
ci nienormalni i tak wezmą coś innego.
mnie tam GHz nie rajcuja, ale HT i 2MB pamieci wiecej warte rozwazenia, nawet e3-1245v2... moglbym sobie spokojnie grac na jednym monitorze i puszczac film na drugim, dzis przy e8400 nie idzie w ogole
|
 
|
 |
|
NikolaTesla |
Post #10 Ocena: 0 2013-02-24 15:35:15 (12 lat temu) |
 Posty: 419
Z nami od: 01-07-2011 Skąd: Mamucium, Britannia |
Cytat:
2013-02-24 15:17:37, clockwork_orange napisał(a):
Cytat:
2013-02-24 14:22:26, NikolaTesla napisał(a):
Dla normalnego człowieka - nie będzie (3.3 vs 4.7 GHz, checkmate),
ci nienormalni i tak wezmą coś innego.
mnie tam GHz nie rajcuja, ale HT i 2MB pamieci wiecej warte rozwazenia, nawet e3-1245v2... moglbym sobie spokojnie grac na jednym monitorze i puszczac film na drugim, dzis przy e8400 nie idzie w ogole
1.4 GHz różnicy, każda gra ograniczona procesorem ci podziękuje, tak samo jak każda jednowątkowa aplikacja.
Video nie jest już przypadkiem akcelerowane grafiką (jakąkolwiek)?
BTW nie wierzę, że 3570k nie poradzi sobie z video+3d ap na raz.
Masz jeszcze core parking pod windowsami, jak to zmienisz powinieneś dostać jeden rdzeń ekstra, defaultowo połowa idzie na system. [ Ostatnio edytowany przez: NikolaTesla 24-02-2013 15:41 ] ---------------
|
 
|
 |
|