- Questo topic ha 20 risposte, 7 partecipanti ed è stato aggiornato l'ultima volta 17 anni, 6 mesi fa da jack64bit.
-
AutorePost
-
Maggio 28, 2007 alle 10:44 pm #1268559jack64bitPartecipante
Leggendo quest’ultimo post, in effetti, mi sembra di aver notato che non tutte le funzioni sono “multithread” e forse il nostro amico ingtoto ha visto giusto. Onestamente non mi sono mai preoccupato più di tanto di indagare a fondo se tutte le funzioni di PS CS2 utilizzassero i due processori ed avendo “due motori” da 3.6ghz non ho grossi problemi sulla mia macchina. Quello che invece ho notato è che dopo aver cambiato i dischi (ero con 2 SCSI Raid1 36gb. 15Krpm su bus PCI 32bit 33.33mhz ed ora ho due SATAII 250Gb Raid1 7200Krpm su bus integrato SATA I), le operazioni su disco, una volta che i dischi si sono riempiti, sono molto ma molto più lunghe. Lo dimostra anche il System Monitor di XP in quanto vedo la coda dei dischi “a tappo”. Per questo ho deciso di prendere due dischi sempre SATA ma della Western Digital 150gb a 10Krpm. Ho fatto dei test su una macchina di prova e finora (non ho ancora lavorato su questa macchina) le cose sono oltre le aspettative. I dischi SCSI infatti, anche se hanno una capacità di 320mb/secondo, su operazioni sequenziali sono “strozzati” dal bus PCI sul quale è montata la scheda di controllo. Se, come normalmente succede, si ha una macchina con bus a 32bit 33.33Mhz, la capacità massima di transito dati è uguale a 32×33.33×0,125 e cioè 133Mb/secondo. Un controller SATA anche se di tipo I (1.5gbits/s) ha comunque una capacità maggiore anche se di poco e cioè 150Mb/secondo ca. Più il disco gira veloce, migliore sarà l’accesso. Se facendo girare PS si vede che la cpu non va su… (facciamo finta che si abbiano 2Cpu senza HT), come già detto, potrebbe essere benissimo che il sistema abbia poca memoria (e quindi vada a paginare la memoria su disco per poter liberare quella la RAM) e/o che i dischi (utilizzati tantissimo da PS) vadano in saturazione. Facendo i conti del tempo medio di accesso alla memoria che si conta in nanosecondi e quello ai dischi che si conta in millisecondi, è normale che anche avendo una macchina potente, PS si prenda i suoi tempi per fare le cose… Io mi sento di ribadire il consiglio già espresso. Supporto multiprocessore o no, la memoria, sia essa volatile o di massa, ha la priorità di “messa a punto”. Qui ci vorrebbe qualcuno che ha provato la versione CS3 per capire se hanno posto rimedio a questa “mezza” cappella fatta col CS2… (quella dello pseudo supporto al multiprocessore intendo…) Ciao Jack [lo]
Maggio 28, 2007 alle 10:49 pm #1268561jack64bitPartecipante;hm… forse sono andato un pochino off-topics… Chiedo scusa… :nt ciao!
Maggio 29, 2007 alle 6:43 am #1268603GArtsPartecipanteho scaricato la beta di cs3 proprio a questo scopo…. nulla di fatto, è tutto come cs2 🙁
Maggio 30, 2007 alle 7:20 am #1268802GArtsPartecipanteRagazzi, mi vergogno nel dirlo: non ho capito perché ma alla fine sembra che ce l’abbia fatta! :O In particolare voglio ringraziare jack64bit per i suoi suggerimenti. Sto eseguendo un batch (ptlens, livelli automatici, dissolvenza, contrasto automatico, noiseninja, dissolvenza, maschera di contrasto, conversione, salvataggio) e PS sta usando fino al 90% delle risorse cpu (tutte e 4 le unità logiche). Le impostazioni che ho modificato prima di questa sessione sono le seguenti. 1) File di paging impostato in manuale in windows su un secondo hd scsi U320 10K (valori: 4096MB min/max); 2) Utilizzo di tutte e 4 i drive selezionabili in photoshop per la mem. virtuale (cache 6) (nell’ordine: scsi dedicato, sata, sata, scsi di sistema). 3) settaggio della ram utilizzabile da PS al 70& circa (prima arrivava a 85%). Speriamo che regga! [lo] PS: confermo che GV3 (voce del bios) è la modalità supportata dai nuovi processori intel per risparmiare corrente (=portatili), dunque scaldare meno e far rallentare le ventole dinamicamente (=workstation) quando l’intera potenza della cpu non è necessaria
Giugno 2, 2007 alle 3:00 am #1269507ingtotoPartecipanteCredo che la configurazione non c’entri molto… probabilmente hanno implementato finalmente l’elaborazione batch in multithreading nella CS3, oppure hai usato nell’elaborazione batch dei filtri implementati sfruttando il multithreading. Dato che non ho ancora la CS3 sottomano, potresti fare una prova con una elaborazione batch “fessa” (tipo ridimensionare le immagini, aggiungendo una firma, etc.)? Per ciò che riguarda il collo di bottiglia dei dischi, indubbiamente può avere un’influenza… Tuttavia una volta che si spendono tanti soldini per un sistema di storage SCSI, non vale certo la pena metterlo su un sistema “normale” con il vetusto pci 32-bit/33mhz… Ed in effetti avendo a disposizione una buona workstation sono in genere disponibili slot PCI 64-bit/66MHz, PCI-X o PCI Express. A mio avviso se le prestazioni risultassero davvero limitate dall’I/O su disco conviene andare su configurazioni più spinte (es: RAID0 con un disco capiente di backup, oppure array RAID con maggiore parallelismo, ad es. 4 dischi). [lo]
Giugno 2, 2007 alle 7:24 am #1269519jack64bitPartecipanteOriginariamente inviato da ingtoto: Credo che la configurazione non c’entri molto… probabilmente hanno implementato finalmente l’elaborazione batch in multithreading nella CS3, oppure hai usato nell’elaborazione batch dei filtri implementati sfruttando il multithreading. Dato che non ho ancora la CS3 sottomano, potresti fare una prova con una elaborazione batch “fessa” (tipo ridimensionare le immagini, aggiungendo una firma, etc.)? Per ciò che riguarda il collo di bottiglia dei dischi, indubbiamente può avere un’influenza… Tuttavia una volta che si spendono tanti soldini per un sistema di storage SCSI, non vale certo la pena metterlo su un sistema “normale” con il vetusto pci 32-bit/33mhz… Ed in effetti avendo a disposizione una buona workstation sono in genere disponibili slot PCI 64-bit/66MHz, PCI-X o PCI Express. A mio avviso se le prestazioni risultassero davvero limitate dall’I/O su disco conviene andare su configurazioni più spinte (es: RAID0 con un disco capiente di backup, oppure array RAID con maggiore parallelismo, ad es. 4 dischi). [lo]
Se Garts ha utilizzato sempre la stessa elaborazione batch per fare le prove, probabilmente le modifiche alla configurazione che ha apportato in PShop e le modifiche apportate al sistema hanno influito e non poco. Se invece ogni volta ha testato la cosa con azioni diverse non possiamo sapere da cosa dipende l’utilizzo, ora corretto, dei processori… Ciao! Jack [lo]
-
AutorePost
- Devi essere connesso per rispondere a questo topic.