Jump to content
Annons

Normalisera eller inte?


hillebard

Recommended Posts

Hur är åsikterna om att normalisera spår? Själv gör jag det sällan men jag vet dem som alltid gör det på alla spår innan mixning. Jag känner att jag har lite för dåliga kunskaper för att teoretiskt förstå för- och nackdelar med detta men någon kanske kan upplysa mig?

Link to comment
Dela på andra sajter

Annons

Åsikterna om det är säkert mångt fler än det finns invånare på den här planeten... om du inte redan gissat det 😛 , annars lär du väl bli varse det... 😄

För och nackdelar.. det beror på vad du vill göra.. om du grejat med equalizers och så innan, så höjer normaliseringen volymen på din produktion, förenklat alltså.. Men det kan också göra att det bara blir hårt, odynamiskt och högt. Normalisering används vid machomastring.. tänk reklamsnuttar som spränger dina högltalare när det är paus i dramakomedin som du avnjuter på lördagskvällen... dock behöver man inte göra så..

och upplys gärna mig, alla ni som vet så mycket bättre... 😉

//Smulan

Link to comment
Dela på andra sajter

jo, om du lägger allt så nära noll du kan komma... då blir det ju faktiskt inget utrymme kvar... eller hur? ... men det blir ett himla bra tryck... 😛

?? Att normalisera innebär att dra upp gainen precis innan det peakar. Detta påverkar inte dynamiken alls. Det du tänker på är när dom fläskar på med en limiter och kompressorer osv. DET tar bort dynamik, men är en helt annan sak.

Link to comment
Dela på andra sajter

njaa... det är nog jag som är ute och cyklar.. men jag har bestämt för mig att jag läst det nånstans.. 😛 men limiter och så det vet jag (åtminstone.. 😉 ) ...jag som är helt övertygad.. om att jag läst om det.. konstigt.. men du har rätt, du och ponkass. så vitt jag kan komma på nu.. jag förivrade mig nog.. sry 🙁

det är inte lätt att leva, dagens västvärldsproblem: okunskap om normalisering... tss tss 😄

//smulan

Link to comment
Dela på andra sajter

Jag vet inte hur det är med er mjukvara, hårdvara eller era öron, men om jag normaliserar en wav(med soundforge 6.0) som redan har hög volym märker jag inte nämvärd skillnad(m-audio audiophile usb, behringer b2031). Om jag däremot normaliserar en wav som hade låg volym så knäpper det o knastrar det(det hör till saken att jag använder normalvärdet för normalisering, dvs hamna på 0dB med högsta peak).

Vad har ni för erfarenheter?

Link to comment
Dela på andra sajter

Jo det här med att trycka upp ljudet till 0 db är jag helt med på...Men..det finns inga baksidor? Faror? Jag tycker mig ha hört nånstans i bakhuvudet att man inte ska normalisera för att...ja det kommer jag inte ihåg.

Nåt jag kan tänka mig är att när man höjer signalen höjer man också bruset på kanalen...fel ute?

Link to comment
Dela på andra sajter

Hur är åsikterna om att normalisera spår? Själv gör jag det sällan men jag vet dem som alltid gör det på alla spår innan mixning. Jag känner att jag har lite för dåliga kunskaper för att teoretiskt förstå för- och nackdelar med detta men någon kanske kan upplysa mig?

...men...varför vill man sitta och normalisera varje ljudfil när du enkelt kan justera nivån i mixern? 😛

Link to comment
Dela på andra sajter

Normalisering kollar igenom ljudfilen och letar upp det starkaste ljudet i den. När det är gjort, så förstärks allt ljud lika mycket genom hela filen. Det är vad som händer, helt enkelt. Vad man kanske inte tänker på, är att samtidigt som musikinnehållet förstäks, så förstärks också bruset lika mycket - och risken är då stor att bruset kommer upp på en störande nivå.

Har man spelat in i hög upplösning - 24-bit eller 32-bit FP, så är bruset på en låg nivå från början - och då blir det mindre känsligt.

Ska man sedan teoretisera om det och prata om hårklyverier, så innebär det en generationsförsämring av den digitala signalen eftersom man bearbetar den med en DSP-operation - och sådant är ju aldrig bra, eller...? 😛

Dock kan man ju fråga sig varför man vill normalisera? I normala fall håller man ju inspelningsnivån ganska hög (exakt på 0dB i de kraftigaste peakarna men aldrig över om man bara spelar in i 16-bits upplösning - annars är man illa ute med både brus och dynamik...) - och då är den extra åtgärden ganska meningslös.

Link to comment
Dela på andra sajter

att normalisera ger inga fördelar....när signalen blir högre så blir också bruset högre och därmed har man inte vunnit något....

det man kan använda normalisering till är att om man "mastra". Man har sina 10 låtar på skivan och anpassa de till varandra, så att man slipper höja och sänka nivån när man lyssnar på ett helt album....dessutom om man skulle normalisera varje enskild låt för sig, skulle en balad kunna ha högre ljudstyrka än en rocklåt, och det kanske inte är meningen!

Link to comment
Dela på andra sajter

Tillbaka! 😛

Det finns ju andra värden än de rent tekniska.

Om du har en lite taskig inspelningsnivå på en en jäkligt sjysst tagning (ex akustisk gitarr), så är det betydligt trevligare att jobba med kompressor om signalen har sitt högsta värde nära nollan, än vid ex, -12db. även om man skulle ha spelat in i 32 bitar.

Prova så får ni se!

Andra exempel kan vara när man importerar en sampling som har låg nivå och den vanliga regeln inte räcker till för att höja signalen... bättre att normalisera och ha sjysta nivåer att jobba med. (Självklart ska man försöka hålla dem rätt vid inspelningen)

Link to comment
Dela på andra sajter

Förutom i det att det skulle spela någon roll att bruset höjs när man normaliserar en ljudfil. Ljud-till-brus-förhållandet (sound/noiseration) är ju fortfarande densamma iom att allt förstärks med samma faktor. Så ljudet blir ju inte "brusigare".

Link to comment
Dela på andra sajter

Visst - men innan normaliseringen kan bruset mycket väl ligga på en ohörbar nivå om man har spelat i i hög upplösning. När man sedan normaliserar, så kan det i stället skickas upp på en sådan nivå, att det hörs tydligt...

Link to comment
Dela på andra sajter

Ohörbar nivå? är väl bara att dra upp volymen på det man lyssnar med tills man hör bruset isf. Samma effekt uppstår ju när man normaliserar som också enbart ska ses som en höjning av volymen.

Alltså:

Kan man inte höra något brus hur mycket man än ökar volymen på sina lurar eller monitorer så finns det inget brus i datafilen, och således finns inget brus att förstärka då volymen på densamma ökas.

Förutsatt att lyssningsutrustningen inte genererar något brus i sig är det ju ingen skillnad på att höja volymen på datafilen (=normalisera) och att höja volymen på lyssningsutrustningen utan att ha påverkat datafilen.

Hoppas du/ni förstår min poäng.

Sen att brus/störningar förstås kan uppstå ur avrundningsfel när man arbetar med digitala data är nog en annan diskussion.

Att bruset skulle förstärkas mer än något annat ljud vid normalisering/nivåhöjning är myt. Finns det där så finns det i samma proportition till det "rena ljudet" oavsett hur man ställer volymen, teoretiskt.

Åh vad jag envisas.

Link to comment
Dela på andra sajter

Att bruset skulle förstärkas mer än musikinnehållet är det ingen som har påstått. det förstärks precis lika mycket som signalen.

Om bruset ligger på en ohörbar nivå på det enskilda spåret, så kommer det inte att höras något brus från det enskilda spåret vid mix heller. Om man normaliserar och därmed låter bruset åka upp till en hörbar nivå, så kan bruset däremot bli ett störande fenomen även om det tekniskt sett är samma skillnad mellan signal och brus fortfarande.

Om du börjar med att normalisera alla enskilda spår, så kommer du dessutom att skicka in det högre bruset i alla kommande processeringar (effekter, eq, summering etc) också - något som ytterligare kan förändra brusets karaktär så att det hörs ännu kraftigare.

Om du däremot nöjer dig med att normalisera hela mixen när den är klar (om det nu skulle vara nödvändigt), så kommer du att få lägre brus tack vare att de enskilda spåren inte har normaliserats.

Jag är lika envis... 😛

Link to comment
Dela på andra sajter

Nja...

Om man normaliserar ett enskilt spår (datafil) i en mix måste man ju ändå sänka volymen på dess kanal i mixern för att kompensera för den nivåhöjning man gjort i samband med normaliseringen, annars kommer ju spåret att höras med för stark volym ("bli för högt mixat").

Man får alltså dra ner volymen på det aktuella spåret i mixern efter att det normaliserats om det ska passa in i mixen, vilket gör att ljudnivån, inkl brusnivån sänks till den nivå det var från början. Och vi har alltså hamnat på samma ställe som vi startade...

Jag ser iaf ingen poäng med att normalisera enskilda spår efter inspelning innan mixning förutom att man kan göra snyggare skärmdumpar =). Att få så hög nivå som möjligt utan peak vid inspelningen (utnyttja ljudkortets bitdjup maximalt) är det väsentliga (fast det vet vi ju redan).

EDIT: mixern->mixen

Redigerat av aspucko
Link to comment
Dela på andra sajter

Att normalisera en låt som ska brännas till CD är ju t.ex självklart för att utnyttja hela bitdjupet mediet tillåter (16 bitar för CD). Ligger högsta peaken i låten på -3dB har man ju bara använt 15 bitar t.ex.

Eller cyklar jag?

Stämmer bra det, förutom att det är -6 dB som motsvarar en bit i sammanhanget.

// David

Link to comment
Dela på andra sajter

Väldigt mycket åsikter och sköna teorier om det här! 😛

Normalisering är en helt onödigt ”finess” som finns i de flesta ”mastringsprogram”. Man ska alltid försöka hålla en så stark inspelningsnivå som möjligt istället för att slippa brus istället för att försöka höja nivån senare med normalisering. Jag vet faktiskt inte varför denna funktion finns faktiskt…..för har den ingen nytta alls, som att jämföra med fästingen som inte fyller något som helst syfte i naturen.

Men å andra sidan det är ju inte skadligt att använda normalisering förutom att du påverkar ljudfilen en gång till med processering, och lyssnar man till ”proffsen” så skulle dom ALDRIG göra det.

Men känner man att man vill normalisera så är det bara att göra det…….även fast det är helt onödigt (och faktiskt höjer bruset som påpekats tidigare).

Link to comment
Dela på andra sajter

Hmm. Mycket tyckande är det. Jag får väl tycka jag också då.

Normalisering är bra. Rätt använt.

Men det beror också på. En del gamla regler i den analoga världen gäller inte längre med 32bitars flyttals för ljudfilerna. Spelar man in och arbetar med ljudfilerna på 16bit wav är det viktigt att vara noggrann med bitarna. Då gäller - inspelning upp till max, normalisera inte i onödon och så vidare.

Men, idag kan man ju välja 24bit inspelning i ljudkortet och ha ljudfilerna i 32 bit flyttal. En del ändras då. Bland annat är det en finess att sänka nivåerna till sådär minus 12dBfs max vid inspelning. Risken att det av misstag skall bli överstyrt minskar kraftigt, och inte tappar man nån kvalitet i den digitala delen. Det gäller att lyssna av så att det inte blir extra brus i det analoga, antingen i förförstärkaren eller i AD-n, det beror lite på vilken utrustning man har. Oftast är väl de 2-3 sista bitarna mest brus i en enklare AD, sänker man till -12dBfs tappar man 2 till, men det blir sådär 19 kvar ändå. Gott och väl över de där 16 som ju egentligen räcker. Prova är bara att göra.

Sen när det väl är inspelat på -12db (med 24bit eller 32 bit) så är det ju bara att normalisera till -3db. Kompressorer jobbar mycket bättre upp mot 0-an än långt ner i minus. De gamla vanliga reglerna gäller om man inte skall få överstyrning i bussar och så. Mesta av de problemen försvinner dock om det är 32bit flyttal internt och på alla filer, då kan man vara nästan brottsligt slarvig med nivåerna utan att det påverkar ljudet. Efter masterregeln dock skall det aldrig vara över 0dBfs.

Nu är det inte alla ljudprogram som jobbar med 32bit flyttal internt, eller som ens hanterar ljud så där himla bra alltid. En del av de kända programmen, till exempel äldre versioner av Cubase med den gamla ljudmotorn, anses av vissa låta illa. Tycker dina öron att det gör skillnad hur du jobbar, så gör det ju skillnad. Men det kan bero på så många saker, bland annat vilket program du jobbar i, så det är inte helt enkelt att generalisera.

På samma sätt som man skall experimentera med 32bit flyttals wav-filer innan man bestämmer sig för hur man vill jobba, så är det bra att prova olika samplingsfrekvens. De flesta ljudkort klarar ju både 44.1kHz och 48kHz. Prova om det låter olika, det är inte otroligt på något sätt. Klarar du också 88.1 eller 96kHz så är det bra att prova. Det är inte alls säkert det gör nån skillnad, men bara du kan prova.

Trombonisten.

Link to comment
Dela på andra sajter

Hmm. Mycket tyckande är det. Jag får väl tycka jag också då.

Normalisering är bra. Rätt använt.

Men det beror också på. En del gamla regler i den analoga världen gäller inte längre med 32bitars flyttals för ljudfilerna. Spelar man in och arbetar med ljudfilerna på 16bit wav är det viktigt att vara noggrann med bitarna. Då gäller - inspelning upp till max, normalisera inte i onödon och så vidare.

Men, idag kan man ju välja 24bit inspelning i ljudkortet och ha ljudfilerna i 32 bit flyttal. En del ändras då. Bland annat är det en finess att sänka nivåerna till sådär minus 12dBfs max vid inspelning. Risken att det av misstag skall bli överstyrt minskar kraftigt, och inte tappar man nån kvalitet i den digitala delen. Det gäller att lyssna av så att det inte blir extra brus i det analoga, antingen i förförstärkaren eller i AD-n, det beror lite på vilken utrustning man har. Oftast är väl de 2-3 sista bitarna mest brus i en enklare AD, sänker man till -12dBfs tappar man 2 till, men det blir sådär 19 kvar ändå. Gott och väl över de där 16 som ju egentligen räcker. Prova är bara att göra.

Sen när det väl är inspelat på -12db (med 24bit eller 32 bit) så är det ju bara att normalisera till -3db. Kompressorer jobbar mycket bättre upp mot 0-an än långt ner i minus. De gamla vanliga reglerna gäller om man inte skall få överstyrning i bussar och så. Mesta av de problemen försvinner dock om det är 32bit flyttal internt och på alla filer, då kan man vara nästan brottsligt slarvig med nivåerna utan att det påverkar ljudet. Efter masterregeln dock skall det aldrig vara över 0dBfs.

Nu är det inte alla ljudprogram som jobbar med 32bit flyttal internt, eller som ens hanterar ljud så där himla bra alltid. En del av de kända programmen, till exempel äldre versioner av Cubase med den gamla ljudmotorn, anses av vissa låta illa. Tycker dina öron att det gör skillnad hur du jobbar, så gör det ju skillnad. Men det kan bero på så många saker, bland annat vilket program du jobbar i, så det är inte helt enkelt att generalisera.

På samma sätt som man skall experimentera med 32bit flyttals wav-filer innan man bestämmer sig för hur man vill jobba, så är det bra att prova olika samplingsfrekvens. De flesta ljudkort klarar ju både 44.1kHz och 48kHz. Prova om det låter olika, det är inte otroligt på något sätt. Klarar du också 88.1 eller 96kHz så är det bra att prova. Det är inte alls säkert det gör nån skillnad, men bara du kan prova.

Trombonisten.

Bra inlägg! Mycket vettigt.

Självklart ska man försöka att spela in med 24-bitar om systemet tillåter det, men jag tycker ändå att man bör hålla en så hög insignal som möjligt i alla fall eftersom varje bit du inte uttnytjar innebär en halvering av den faktiskta upplösningen.

Sen när det gäller den analoga signalkedjan innan ljudkortet så är det ett MÅSTE att signalen är så stark som möjligt.....givetvis utan att den överstyrs!

Link to comment
Dela på andra sajter

Hehe... ja, och "proffsen" är alltid jättenoga med vad de lämnar ifrån sig för material, ifråga om dynamik...

"Oj oj oj, nu börjar det brusa om lilla Britta här.... FAN..!!! är det den där jävla praktikanten som varit på normaliseringen igen?!?!?!"

Vissa pumpar upp mixen till max, och ser till att konstant hålla sig på en hög volym, eller så finns det sådana som tillåter en lägre inspelningsvolym för att ge utrymme för bara en eller ett par starkare toner i ex. en sånginsats.

Vågar man sig på mer dynamiskt omfångsrika inspelningar (och inte vill komprimera signalen innan man spelar in den) så får man acceptera att man väldigt sällan utnyttjar hela bitdjupen, eftersom man väldigt sällan (ifråga om ex. sång och en plockad akustisk gitarr) hamnar nära nollan, med än vid någon peak.

Det är precis lika viktigt att ge utrymme för peakar, för att kompensera för det headroom som fanns ovanför nollan på analoga system.

Det jag menar är att det egentligen bara är en akademisk diskussion, för jag tror inte att någon här i ett blindtest skulle höra skillnad, om man jämförde två inspelningar, där den ena var inspelad att som starkast nå -4.0 db. som sedan hade normaliserats till -0.2db, och jämförde den inspelningen med en som från början var inspelad att peaka vid -0.2

Om man lyssnar på en cd med akustisk musik(klassisk ex.) så är det ju som sagt väldigt sällan musiken hamnar upp mot nollan i styrka, bortsett ifrån vissa peakar.

Om jag spelar in i 32 bitar och sedan normaliserar inspelningen ex. +5db, menar ni på allvar att det skulle spela någon roll?

Skulle något som hör min inspelning rycka till och tänka "Oj, här måsta man ha normaliserat vid inspelningen" eller "Aj, mina öron, här utnyttjar man inte alla 16 bitarna på cdn"

Nä,... knappast... 😛

EDIT: Sorry, menar inte att upprepa en massa men trombonisten hann visst före

Redigerat av Andreas L
Link to comment
Dela på andra sajter

Bli medlem (kostnadsfritt) eller logga in för att kommentera

Du behöver vara medlem för att delta i communityn

Bli medlem (kostnadsfritt)

Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!

Bli medlem nu (kostnadsfritt)

Logga in

Har du redan en inloggning?
Logga in här.

Logga in nu
×
×
  • Skapa ny...