[Linux-Biella] (semi OT) domanda su risoluzione e dpi

Paul TT paultt a bilug.linux.it
Ven 29 Maggio 2009 11:35:30 CEST


Ax wrote:
> Daniele Segato ha scritto:
>   
>> su 3 video diversi che permettono diverse risoluzioni puoi vedere la
>> stessa immagine, grossa uguale, a tre diversi livelli di definizione
>>
>>   
>>     
> ritornando alla domanda originale il tuo esempio mi ha dato un'idea.
> se io ho tre video immaginari con risoluzioni differenti 100, 200, 300 dpi
> e vedo la stessa immagine sui tre video quella sullo schermo a 100dpi 
> sarà più grossa delle altre giusto?
>   
a video si'
> ecco io avrei bisogno di fare quello.
> data un'immagine 13x10 300dpi avrei bisogno di farla diventare da 39x30 
> 100dpi (senza quindi perdere definizione)
> ovviamente cambiando solo i dpi, cioè se possibile non mi devo sbattere 
> tutte le volte a calcolare la nuova dimensione.
>   
uh? falla calcolare a lui, usa la % e via ;P
> da gnurante ho provato con quei parametri tipo bicubic e linear e ... ma 
> il lavoro che fa gimp è sempre lo stesso
> riduci i dpi ti riduce anche le dimensioni facendoti perdere quindi di 
> definizione.
>   
non e' vero, io se li riduco la dimensione mi resta invariata. ovvio che 
perdi risoluzione se li diminuisci, cmq

ma non ha molto senso se consideri il lavoro a video
gimp lavora sulle dimensioni reali
> spero adesso di essermi spiegato ... credo :P
>   
meglio, si' :)
ma non consideri che se tu passi da 13x10 a 39x30, alla fine non ti 
cambia nulla se diminuisci risoluzione o la aumenti, i dati che hai son 
sempre gli stessi. puoi giocherellare con tipo di scalatura e filtri 
vari per aumentare come ho detto prima i dati che hai, ma cmq stai 
barando ;P
>> quando fai una foto con una digitale questa viene, in genere, impostata
>> automaticamente al suo livello di dpi. se tu aumenti i dpi senza
>> modificare il numero di pixel verrà automaticamente ridotta la
>> dimensione fisica e viceversa.
>>   
>>     
>
> questa non l'ho capita.
> da quel che ne so io i pixel sono fissi e i dpi possono arrivare al 
> massimo al numero di pixel.
> o mi sbaglio ... se la fotocamera ha 1000 pixel inch tu potrai scegliere 
> se fotografare a 100, 500, 1000 dpi ma non più di 1000.
>   
right
> il che vuol dire che se io scelgo un dpi minore della matrice pixel vuol 
> dire che userò più pixel per ogni dot.
>   
mh, si', ma quel pixel immaginario composto da 4 e' cmq uno ;)

-- 
BAAL7697516907550001




Maggiori informazioni sulla lista Linux