Jump to content
Annons

Blir det fetare ljud om man mixar ner midikanaler till audio?


DrPump (oregistrerad)

Recommended Posts

DrPump (oregistrerad)

Två grejer som jag hört talas om som jag undrar om de stämmer:

1. Om man jobbar med mjukvarusynthar, så är det ett bra knep att mixa ner dessa kanaler till audiospår istället för midi, för att man därigenom får ett "tightare" och bättre ljud. Är detta riktigt? Någon sa att tex. ett trumbeat låter klenare när det spelas upp via ett midispår än när det är audio.

2. När man mixar ner dessa kanaler gäller det att se till så ljudnivån hamnar så nära nollan som möjligt, för att ljudet ska bli så fett som möjligt. Korrekt?

Mvh /M

Link to comment
Dela på andra sajter

Annons
thrinithan (oregistrerad)
Två grejer som jag hört talas om som jag undrar om de stämmer:

1. Om man jobbar med mjukvarusynthar, så är det ett bra knep att mixa ner dessa kanaler till audiospår istället för midi, för att man därigenom får ett "tightare" och bättre ljud. Är detta riktigt? Någon sa att tex. ett trumbeat låter klenare när det spelas upp via ett midispår än när det är audio.

2. När man mixar ner dessa kanaler gäller det att se till så ljudnivån hamnar så nära nollan som möjligt, för att ljudet ska bli så fett som möjligt. Korrekt?

Mvh /M

1. Nej

2. Att komma så nära nollan som möjligt har bara med volym att göra.

Link to comment
Dela på andra sajter

1. Allt ljud som du får från en mjukvarusynth är "audio". Midi är signaler som skickas till midisynthen och berättar vad den ska spela. Så att mixa ner "audion" från en mjukvarusynth ger exakt samma resultat förutom att du inte har kvar flexibiliteten av att kunna ratta mjukvarusynthen.

2. Du ska få dom så höga så att dom inte distar. Fast som sagt så behöver du inte mixa ner dom 😱

Link to comment
Dela på andra sajter

DieHard (oregistrerad)

Enda anledningen att göra audio av midispår är för att spara processorkraft.

Link to comment
Dela på andra sajter

2. När man mixar ner dessa kanaler gäller det att se till så ljudnivån hamnar så nära nollan som möjligt, för att ljudet ska bli så fett som möjligt. Korrekt?

om man vill ha fett ljud då räker det inte med att öka volymen så att den kommer till 0db

utan man måste öka medelvolymen så att den kommer nära nollan, jag gissar ca -10--12db på stark pop

detta gör man med en kompressor/limiter

tex klassisk musik har samma volym som kommersiell pop men medelvolymen skiljer drastiskt

Redigerat av spass
Link to comment
Dela på andra sajter

Enklaste jämförelsen är egentligen att se midiinstrument som en levande orkester. I stället för att ha en massa avlönade musiker som sitter och spelar samma sak gång efter gång så kan du bara spela in dem och skicka hem musikerna.

När du spelar in midiinstrument till audio innebär det att inte datorn själv måste sitta och spela varenda instrument utan att datorn bara spelar upp en inspelning. Jämför själv ett framträdande av en rocklåt (en person spelar alla sintrument) med att bara sätta igång en CD.

Att spela in i audio innebär en enorm lättnad för datorn och sparar en hel del kraft som kan användas åt annat, exempelvis effekter och dylikt på det inspelade materialet.

Spelar du in i 24bit så är det inte jätteviktigt att ljudvolymen blir "jättestark". Skulle det vara ett problem är det lättkorrigerat med kompressorer och annat i efterhand. I många studios spelar man in leadsång "svagt", men man prioriterar hellre att undvika peakar än att få hög volym på inspelningen. Volymen kan ju korrigeras i efterhand, såvidare du inte sysslar med riktigt låga upplösningar.

Link to comment
Dela på andra sajter

DrPump (oregistrerad)
Enklaste jämförelsen är egentligen att se midiinstrument som en levande orkester. I stället för att ha en massa avlönade musiker som sitter och spelar samma sak gång efter gång så kan du bara spela in dem och skicka hem musikerna.

När du spelar in midiinstrument till audio innebär det att inte datorn själv måste sitta och spela varenda instrument utan att datorn bara spelar upp en inspelning. Jämför själv ett framträdande av en rocklåt (en person spelar alla sintrument) med att bara sätta igång en CD.

Att spela in i audio innebär en enorm lättnad för datorn och sparar en hel del kraft som kan användas åt annat, exempelvis effekter och dylikt på det inspelade materialet.

Spelar du in i 24bit så är det inte jätteviktigt att ljudvolymen blir "jättestark". Skulle det vara ett problem är det lättkorrigerat med kompressorer och annat i efterhand. I många studios spelar man in leadsång "svagt", men man prioriterar hellre att undvika peakar än att få hög volym på inspelningen. Volymen kan ju korrigeras i efterhand, såvidare du inte sysslar med riktigt låga upplösningar.

Jag har kass koll på det här med antal bitar, men har trott att om man mixar ner eller spelar in på så hög volym som möjligt så liksom "uttnyttjar" man alla bitar till fullo och det därför blir bättre ljud. Så om man spelar in med 24-bit upplösning och håller sig nära nollan, så "fyller" man ut alla 24 bitarna. Fast det kanske inte har så stor effekt på ljudkvalitén då alltså?

Link to comment
Dela på andra sajter

thrinithan (oregistrerad)
Enklaste jämförelsen är egentligen att se midiinstrument som en levande orkester. I stället för att ha en massa avlönade musiker som sitter och spelar samma sak gång efter gång så kan du bara spela in dem och skicka hem musikerna.

När du spelar in midiinstrument till audio innebär det att inte datorn själv måste sitta och spela varenda instrument utan att datorn bara spelar upp en inspelning. Jämför själv ett framträdande av en rocklåt (en person spelar alla sintrument) med att bara sätta igång en CD.

Att spela in i audio innebär en enorm lättnad för datorn och sparar en hel del kraft som kan användas åt annat, exempelvis effekter och dylikt på det inspelade materialet.

Spelar du in i 24bit så är det inte jätteviktigt att ljudvolymen blir "jättestark". Skulle det vara ett problem är det lättkorrigerat med kompressorer och annat i efterhand. I många studios spelar man in leadsång "svagt", men man prioriterar hellre att undvika peakar än att få hög volym på inspelningen. Volymen kan ju korrigeras i efterhand, såvidare du inte sysslar med riktigt låga upplösningar.

Jag har kass koll på det här med antal bitar, men har trott att om man mixar ner eller spelar in på så hög volym som möjligt så liksom "uttnyttjar" man alla bitar till fullo och det därför blir bättre ljud. Så om man spelar in med 24-bit upplösning och håller sig nära nollan, så "fyller" man ut alla 24 bitarna. Fast det kanske inte har så stor effekt på ljudkvalitén då alltså?

Desto fler bitar desto fler "nivåer" mellan peak signal och brus (SNR=Signal to Noise) vilket ofta, om inte alltid, är bra.

Link to comment
Dela på andra sajter

Enklaste jämförelsen är egentligen att se midiinstrument som en levande orkester. I stället för att ha en massa avlönade musiker som sitter och spelar samma sak gång efter gång så kan du bara spela in dem och skicka hem musikerna.

När du spelar in midiinstrument till audio innebär det att inte datorn själv måste sitta och spela varenda instrument utan att datorn bara spelar upp en inspelning. Jämför själv ett framträdande av en rocklåt (en person spelar alla sintrument) med att bara sätta igång en CD.

Att spela in i audio innebär en enorm lättnad för datorn och sparar en hel del kraft som kan användas åt annat, exempelvis effekter och dylikt på det inspelade materialet.

Spelar du in i 24bit så är det inte jätteviktigt att ljudvolymen blir "jättestark". Skulle det vara ett problem är det lättkorrigerat med kompressorer och annat i efterhand. I många studios spelar man in leadsång "svagt", men man prioriterar hellre att undvika peakar än att få hög volym på inspelningen. Volymen kan ju korrigeras i efterhand, såvidare du inte sysslar med riktigt låga upplösningar.

Jag har kass koll på det här med antal bitar, men har trott att om man mixar ner eller spelar in på så hög volym som möjligt så liksom "uttnyttjar" man alla bitar till fullo och det därför blir bättre ljud. Så om man spelar in med 24-bit upplösning och håller sig nära nollan, så "fyller" man ut alla 24 bitarna. Fast det kanske inte har så stor effekt på ljudkvalitén då alltså?

Desto fler bitar desto fler "nivåer" mellan peak signal och brus (SNR=Signal to Noise) vilket ofta, om inte alltid, är bra.

Så är det förstås, men om man spelar in i 24-bit, så har man ändå så hög upplösning, att man kan sikta på runt -6 - -10dB i stället för att sikta på 0dB, utan att riskera någon hörbar försämring. Man kan med andra ord då skapa ett "headroom", så att man t ex kan spela in helt rent, utan kompressor - om man föredrar att lägga sådant vid mix. Man kan helt enkelt vara slarvigare med nivåerna, eftersom man har god marginal och ändå lågt brus. Att spela in i 32-bit FP är däremot meninglöst när det gäller ljudkvaliteten, eftersom ljudinnehållet ändå bara är 24-bit. Det finns ju som bekant inga 32-bits omvandlare och DAW-programmet kör ända med floating point internt - aven om själva ljudfilerna är 24-bit.

Link to comment
Dela på andra sajter

Enda anledningen att göra audio av midispår är för att spara processorkraft.

Tänk att här har jag en helt annan åsikt. Jag ser fler analedningar att bounca ut ett midispår till audio. Några anledningar är att det ger mig betydligt större möjligheter att klippa, klistra, reversera osv i spåret. Blir rätt jobbigt när det är midi.

Sen det där med att hålla sig nära nollan, jag uppfattar det som att när han bouncar ut ett enskilt spår så ska signalen ligga nära nollan för att minimera brus osv.

Link to comment
Dela på andra sajter

Enda anledningen att göra audio av midispår är för att spara processorkraft.

Tänk att här har jag en helt annan åsikt. Jag ser fler analedningar att bounca ut ett midispår till audio. Några anledningar är att det ger mig betydligt större möjligheter att klippa, klistra, reversera osv i spåret. Blir rätt jobbigt när det är midi.

Med midi har man ju fria händer att ändra alla toner man vill ändra. Att klippa i en audiofil och kopiera, flytta etc, blir mindre exakt eftersom ljud kan ligga kvar vid klippet. Om man däremot ska reversera, så är det lite svårt med midi, så där förstår jag det...

Sen det där med att hålla sig nära nollan, jag uppfattar det som att när han bouncar ut ett enskilt spår så ska signalen ligga nära nollan för att minimera brus osv.

Det beror på...

Om du exporterar till 16-bit, så håller jag med - men om du håller dig kvar i 24-bit, så spelar det normalt inte någon nämnvärd roll.

Link to comment
Dela på andra sajter

Det beror på...

Om du exporterar till 16-bit, så håller jag med - men om du håller dig kvar i 24-bit, så spelar det normalt inte någon nämnvärd roll.

Är det så även om man spelar in från en mick eller linead signal?

Link to comment
Dela på andra sajter

Det beror på...

Om du exporterar till 16-bit, så håller jag med - men om du håller dig kvar i 24-bit, så spelar det normalt inte någon nämnvärd roll.

Är det så även om man spelar in från en mick eller linead signal?

Vilken sorts ljud det är, spelar ingen roll.

När du spelar in med mic i 24-bitsupplösning, så kan du utan att vara orolig sikta på -10 - -6dB någonstans i stället för att slicka nollan. Vinsten man får i det "headroom" man då skapar, överväger med mycket stor marginal den ytterst lilla försämringen av signal/brus-förhållande.

Spelar man däremot in i 16-bitsupplösning, så är det kinkigare och man får vara mer noga för att det ska bli riktigt bra.

Link to comment
Dela på andra sajter

Det beror på...

Om du exporterar till 16-bit, så håller jag med - men om du håller dig kvar i 24-bit, så spelar det normalt inte någon nämnvärd roll.

Är det så även om man spelar in från en mick eller linead signal?

Ja, Om du spelar in i 24 bit så kan du låta det vara lite headroom. Blir lättare att jobba med ljudet efteråt vid mixningen sedan också. Håll dig till 24 bit ända fram tills mastringen är färdig, det är i mastringen du sedan tar ner det till 16 bit.

MVH

Anders

EDIT: Sorry Claes, du hann före 😛, f-n va långsamt jag skriver innan jag fått i mig mitt kaffe.

Redigerat av Gizmozis
Link to comment
Dela på andra sajter

DrPump (oregistrerad)

Tusen tack för alla svar! Nu har man lärt sig en del nytt! =)

Redigerat av DrPump
Link to comment
Dela på andra sajter

Med midi har man ju fria händer att ändra alla toner man vill ändra. Att klippa i en audiofil och kopiera, flytta etc, blir mindre exakt eftersom ljud kan ligga kvar vid klippet.

Men om man är ute efter att skapa en effekt genom att kapa ett ljud då? 😛 Det enda jag säger är att jag föredrar att bounca ut midispår så jag kan klippa och klistra i dem på ett sätt som midi inte tillåter mig att göra. I grunden handlar det väl om olika arbetssätt och hur man föredrar att arbeta, att bounca är mitt helt enkelt 😲 Ännu en anledning till bounce är att jag nånstans bestämt mig för att det spåret låter bra och att jag inte vill ändra mer i hur det låter, då är bouncen skitbra för att kunna gå vidare. Risken är att jag annars fastnar i midispåret och ändrar och fipplar i evigheter. Självklart bouncar jag inte alla spår som tex trumspår osv där jag vill ha möjlighet att göra ändringar under tiden jag jobbar.

Link to comment
Dela på andra sajter

Det sköna med att dra ner det till ett spår är att du lite har bestämt dig. Du behöver inte sitta och ratta på den där synthen i tre timmar till, det är som om du ställt in en viss inställning på gitarrförstärkan för att få ett visst sound. När du väl spelat in den låter den ju som den gör, och du slipper oroa dig... Hehe

Så jobbar i alla fall jag, annars kommer jag ingen stans, sitter bara o fipplar...

/ F

Link to comment
Dela på andra sajter

Med midi har man ju fria händer att ändra alla toner man vill ändra. Att klippa i en audiofil och kopiera, flytta etc, blir mindre exakt eftersom ljud kan ligga kvar vid klippet.

Men om man är ute efter att skapa en effekt genom att kapa ett ljud då? 😉 Det enda jag säger är att jag föredrar att bounca ut midispår så jag kan klippa och klistra i dem på ett sätt som midi inte tillåter mig att göra. I grunden handlar det väl om olika arbetssätt och hur man föredrar att arbeta, att bounca är mitt helt enkelt 🙂 Ännu en anledning till bounce är att jag nånstans bestämt mig för att det spåret låter bra och att jag inte vill ändra mer i hur det låter, då är bouncen skitbra för att kunna gå vidare. Risken är att jag annars fastnar i midispåret och ändrar och fipplar i evigheter. Självklart bouncar jag inte alla spår som tex trumspår osv där jag vill ha möjlighet att göra ändringar under tiden jag jobbar.

Så tänker jag när det gäller mixen, när man ska gå vidare och mastra - men ljuden pillar jag aldrig så mycket med, utom i undantagsfall, så där fastnar jag aldrig - men om du pillar mycket med ljudet så förstår jag att det kan vara bra med ett avslut på det sättet. Själv tar jag inte slutgiltiga beslut om vilka ljud som ska användas, förrän det börjar närma sig slutmix - utan jag kollar vilka som stämmer in i arret först efter att sången är lagd.

Link to comment
Dela på andra sajter

Bli medlem (kostnadsfritt) eller logga in för att kommentera

Du behöver vara medlem för att delta i communityn

Bli medlem (kostnadsfritt)

Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!

Bli medlem nu (kostnadsfritt)

Logga in

Har du redan en inloggning?
Logga in här.

Logga in nu
×
×
  • Skapa ny...

Viktig information om kakor (cookies)

Vi har placerat några kakor på din enhet för att du ska bättre ska kunna använda den här sajten. Läs vår kakpolicy och om hur du kan ändra inställningar. Annars utgår vi från att du är bekväm med att fortsätta.