Jump to content
Annons

SkunkFunk

Medlem
  • Antal inlägg

    192
  • Gick med

  • Senast inloggad

Allt postat av SkunkFunk

  1. Det där ser ju ut som ett typexempel på assymetrisk distorsion!
  2. Ja, bortsett från virvelreverb så bör man inte se reverb som en effekt, utan bara som en del av ljudet. När jag justerar reverb brukar jag alltid försöka fokusera på var jag vill sätta ett instrument i djupet, om det ska vara framstående eller låta avlägset. Men ljudet en plats i djupet, inte bara i panoramat. Dessutom tycker jag att överdrivet torra saker kan låta ganska så konstiga, därför tycker jag det brukar löna sig att ha lite svagt reverb. Om man använder sig av många reverb samtidigt kan man balansera dessa väldigt olika och på så vis ge olika rum för olika instrument. Ändå är det ju samma instrument och man får ett intryck av att de befinner sig i samma rum. Det här kan också bli en arrangeringsfråga, vilka olika instrument man vill ska befinna sig på samma plats. Ska slagverket få liknande rum som trummorna, eller ska de få något eget? Ska sångarens gitarr läcka in i sångreverbet eller ska den låta som de andra gitarrerna. Det blir många val man står inför, men resultatet blir en väl sammanhållen mix. Reverb tycker jag närmast kan beskrivas som en skugga till ljudet. Och små skuggor finns både bakom ojämnheter på den belysta ytan, men bildas också på marken bakom. Man tänker inte på att det finns där, men om det försvinner man märker man genast att det blir fel.
  3. Att saker skulle låta bra för att de innehåller rör är bara en stor myt...
  4. Mitt 1212m (äldre versionen) funkar fint i W7, enda gisslet är att man måste köra kontrollpanelen i kompabilitetsläge för XP.
  5. Om du tycker reverbet smetar ut borde du ju prova att använda mindre. Väldigt svaga reverb har också en funktion, i att instrumenten låter mer naturliga, men det behöver inte betyda att de inte låter torra. Predelay kan ju användas på det mesta, inte bara sång! Men självklart i rätt mängd... EDIT: Eller rättare sagt, predelay är en inställning som alla andra, inte en speciell "effekt" som man drar upp ur bakfickan vid speciella tillfällen. För mig är i alla fall predelay en lika viktig parameter som efterklangstid.
  6. Brukar alltid använda ett plate till sång, ett plate eller liknande till virvel och toms, ett room till trummor i allmänhet och ofta blir det också ett hall som jag låter lite allt möjligt gå in i (basskuret kring 250, så kan man också dra in baskaggen om det behövs). Och slutligen brukar ett jag ha ett gigantiskt cathedral om man behöver ett lite "flummigare" reverb. Men sen brukar jag huvudsakligen använda delayer till gitarrerna och komplettera sången med ett modulationsdelay. Däremot chorus och liknande använder jag nästan aldrig och ska det användas blir det väl till något syntetiskt ljud.
  7. TC:s hårdvarureverb är ju mer eller mindre studiostandarder...
  8. Icke då! Grejen med just 4 element är att man kan parallellkoppla två seriekopplade elementpar och få samma impedans som ett enskilt element. Inte för att alla lådor använder sig av detta, men jag har fått för mig att det är det vanligaste.
  9. Trodde på allvar att det var 6% på musik och film också. Men där tog jag fel...
  10. Efter att ha jobbat mycket med protools så har jag lärt mig uppskatta möjligheten att slå ihop flera sessioner till en. Nu ligger jag i en sits där inspelningar kommer till mig allt eftersom och i stället för att dra en bounce på varje spår skulle det ju vara mycket smidigare att slå ihop projekten, så att alla editeringsmöjligheter finns kvar. Som OMF fungerar det ju, men det borde väl finnas något sätt att göra detta även med cubase sessioner? Eller är det kanske bara något som de erbjuder i nuendo månne?
  11. För närmickning hade jag gått på SM57:or för att det helt enkelt är ett säkert kort och låter bra på blåsinstrument. Att gå alltför nära ett blåsinstrument med en bandmick kan leda till att du inte har så mycket band kvar, men på ett litet avstånd så kan de låta riktigt bra, så prova gärna om du har möjlighet. Särskilt om du ska ta flera tagningar, varav ett solo, så kan det vara en utmärkt idé att låta kompandet ske med dynamiska mickar och låta solot ske med bandmick, bara för att de ska få olika karaktär. Om du däremot har ett riktigt bra rum, så kan du ju antingen prova med en a/b-uppställning med kondingar och ställa musikerna på den plats du sedan vill ha dem "panorerade" i mixen och spela in i gammaldags stereoanda. Om läck är ett problem kan du annars använda bandmickarna, eftersom de har 100% utsläckning åt sidorna vid ALLA frekvenser. Antingen om du ställer dem i 90 graders vinkel och låter varsin blåsare spela in i varsin mick, eller om du ställer blåsarna och mickarna i hörnen på en fyrkant och nyttjar samma fenomen. Eller så kan du helt enkelt köra med kondingar någon meter ovanför instrumenten och se till att avståndet mellan musikerna är minst 3 gånger det avstånd de har till mikrofonen för att läcket inte ska bli ett alltför stort problem. Allt beroende på vad du planerar att göra med det i mixen senare och vad som passar bäst.
  12. Vissa av cubasepluggarna är verkligen inte att underskatta. Skulle jag stå att välja mellan Cloner eller waves doubler skulle cloner vinna alla gånger. REVerence är också helt underbar, men jag har inte gjort någon direkt jämförelse mot IR-L, även om jag tycker att REVerence har lite bättre upplägg och möjligtvis lite bättre impulsfiler. Multiband compressor och vintage compressor är exempel på andra cubasepluggar som jag ofta använder. Det som däremot ofta kan tala för waves fördel är ju att de har väldigt bra användarinterface. De är väldigt lättarbetade och bara en sån sak som att kunna markera flera parametrar samtidigt kan snabba upp arbetet rejält. Även presethanteringen är betydligt smidigare än cubase egen och att de finns så gott som över allt, oavsett vilken SAW man jobbar i gör det väldigt bra att vara bekant med dem.
  13. De flesta seriösa pluggar som får en fördel av att jobba med högre frekvenser har en intern uppsampling som man sällan behöver bry sig särskilt mycket om som slutanvändare.
  14. Spelar ingen roll om det är multiplar eller ej. I ett standard system kan man inte blanda några samplingsfrekvenser och i ett system som hanterar flera frekvenser så spelar det ingen roll om de är jämnt delbara med varandra eller ej.
  15. Den analoga färgningen som medvetet läggs till är en annan sak än digitala artefakter. Att motverka kvantiseringsfel som uppstår i en digital process bidrar till transparens. Att forma dem på ett annat sätt bidrar till kvantiseringsfel alternativt brus. Kvantiseringsfel förekommer inte över huvud taget i analoga sammanhang och därför finns det bara ett sätt att gå - minimera dem. Självklart är detta något man har som mål oavsett vad programmet ska användas till, ingen vill ha digitala artefakter by default. Vill man ha en analogemulering i sin DAW ser jag inget fel med att skaffa mixbus, men man ska inte tro att den digitala hanteringen blir bättre för det. Jag kan inte tänka mig någonstans att en seriös daw-tillverkare inte skulle ha tillräckligt med förstånd för att sköta sin signalbehandling korrekt. Det finns inte ett oändligt antal aspekter att ta hänsyn till, det finns bara ett fåtal frågor. Intern upplösning? Intern samplingsfrekvens? Dither eller inte? Dithertyp? Noise shaping? Att göra en korrekt summering eller trunkering är inga problem alls så länge man vet vad man håller på med - och jag betvivlar inte att någon DAW-tillverkare inte har den kunskap som behövs.
  16. Om det verkligen är solklart borde du inte ha något problem med att komma med ett exempel? Varför skulle jag hålla med? Det handlar om beräkningar som görs utifrån ett specifierat protokoll och inte att man gissar sig fram till det och variationsmarginalen är så gott som obefintlig. De skillnaden man kan få beroende på hur man hanterar avrundningarna kommer enbart kunna generera kvantiseringsdistorsion och ett stegrande brusgolv, inget annat. Och återigen, posta en källhänvisning så man kan läsa citatet i sin kontext!
  17. Okej, jag tog bara ett exempel. Men vi kan väl säga digico sd8 eller presonus studio live då, även om de befinner sig i helt olika prissegment. Annars så är det ju en marknad som står rätt stilla, trots att användningsområdena ändrats ganska så mycket för digitalbord överlag. Musik har börjat gå mot dator. Broadcast har gått helt från analogt till digitalt. PA har sysslat med digitalbord länge, men ställer inte heller så höga krav på ljudkvalitén som man gör i andra branscher, så det blir svårt att hitta något bra sätt att göra en direkt jämförelse. Men jag tror påängen gick fram 😉
  18. Om du syftar på stycket om float vs. fixed så är det inte alls några teorier, utan vetenskapligt belagd fakta. Jag länkade till en artikel i en tidigare post, läs den om du törs. Som jag sade, optimering har ingenting att göra med "analogiteten" i ljudet. Skilj på transparens och färgningar. Oavsett vilket system man använder så vill man att det ska vara transparent på alla sätt där någon färgning inte är önskvärd. De resultat man får av olika optimeringar i ett digitalt system är ren och skär kvantiseringsdistorsion och brus, inget annat. Det analogsound som mixbus ger har och göra med medvetna färgningar att göra, inte genom att minska alla avrundningsfel som kan uppstå i motorn. Fast pan law är ju bara ett arbetsredskap, det har ju bara att göra med hur man vill att volymen ska reagera i samband med att man ställer in panoreringen 😉 Omvandlare! Omvandlare! Intern upplösning! Ljudkvalitén i ett system påverkas av bra mycket mer än summeringsprocessen (eller rättare sagt, summeringsprocessen påverkar inte alls då den inte på något sätt går att variera). Äldre digitalmixers hade ju usla omvandlare jämfört med dagens och även ett modernt bord som yamaha dm2000 låter ju mycket sämre än ett system baserat på apogeeomvandlare eller liknande. Dessutom har ju den interna upplösningen varit mycket lägre under ett historiskt perspektiv och de interna effekterna kan nog ha ett och annat med saken att göra också 🙂 Står det på internet så stämmer det, eller hur var det nu? Du borde nog kolla upp dina källor bättre och inte bara leta efter information som stödjer dina teser. Försök hitta ett oberoende test och glöm inte att länka. Ett löstaget citat tjänar väldigt lite nytta som argument. Jag försöker inte på något sätt antyda att mixbus skulle låta dåligt, men du verkar verkligen överskatta dess förmåga och på ett väldigt okritiskt sätt glorifiera det. Och bara för att harrison har byggt analogbord sedan länge betyder det inte att de rakt av skulle göra en DAW som vida överträffar andra. Tror du att andra tillverkare börjat programmera sina produkter direkt efter en treveckors postorderkurs?
  19. Jodå, skälet till att man köper ett SSL är ju att det låter på ett visst sätt. Nu talar vi verkligen inte om någon spektralförändring, bara en väldigt lätt distorsion. Skälet till att många studios sitter kvar på ett gammalt G-bord är ju just att de låter så typiskt pop-musik. Färgning behöver verkligen inte vara dåligt, men den ska då finnas där genom ett medvetet val, att köpa ett SSL-bord. Vill man ha ett transparent system så köper man en dator och ett par fläskiga omvandlare.
  20. Det är stor skillnad på optimering och koncept. Harrison Mixbus är en fråga om koncept, att lägga till en karaktär på ljudet. Optimering är en fråga om implementering och har ingen inverkan på ljudet. Summering fungerar likadant oavsett vart det sker, både i analoga och digitala domäner. Att analog summering skulle avvika från kirchoffs stömlag är en omöjlighet. Den optimering man kan göra i signalvägen för digital ljudhantering handlar om att hantera trunkering och digital summering och eftersom inget av detta sker i den analoga domänen så kan man inte "optimera" för att få det att låta som ett harrison-bord. Det man gjort är att medvetet färga ljudet, vilket är en helt annan sak. Se ovan. Precis, du säger ju det själv, 32 bitars float har bara 24 bitars noggrannhet, självklart menar jag då oavsett nivå. Dynamiken är helt överlägsen 48 bitar fixed, men ljudet kan fortfarande inte beskrivas med mer än 24 bitars detalj för varje enskild sample. Beroende på nivån på signalen kommer skalfaktorn, och därmed kommer kvantiseringsfelets bitdjup i trunkeringen till 24 bitar variera med signalen och vara koorelerat (alltså distorsion). Som du säger så kommer ju dithret summeras för varje instans i mjukvaran (förutsatt att man öht använder dither, vilket inte är standard i pthd). Fördelen med floating point däremot är ju då den fullständiga säkerheten mot idiotiska gainstrukturer, man kan ställa in nivåerna precis hur som helst och låta varenda mätare gå i taket utan att ljudet påverkas. Ska man jobba med 48 bitar fixed så måste man ha väldigt god koll på nivåerna för att utnyttja prestandan. Och själv väljer jag faktiskt hellre floating av just denna anledning, jag vet inte hur många gånger jag råkat ut för klippande bussar och behövt göra en massa extra jobb i onödan för att kunna hålla nivåerna bra. Men det här är ju egentligen på gränsen till hårklyveri, de enda jag hört tala om detta som ett problem är folk som sysslar med klassisk musik och ofta jobbar med väldigt dynamiskt material. Precis!
  21. Det där är ju bara säljsmörja. Man kan inte "optimera" ett digitalsystem så att det låter mer analogt och det blir inte bättre bara för att harrison har gjort den. Hitta en källa som har testat systemet opartiskt, så kan du börja diskutera frågan.
  22. För att floating point ska kunna dithras korrekt så måste signalen omvandlas till fixed point med samma upplösning som tidigare, d.v.s. brutalt många bitar. Först därefter kan trunkering och dithering ske, vilket inte är möjligt eftersom det inte finns några system som kan hantera denna oerhörda dynamik. Andra dithermetoder, som att man dithrar med samma bitdjup som djupet på kvantiseringsfelet kommer ge ett dither som är koorelerat till signalen, eftersom kvantiseringsfelet ändras i och med skalfaktorn, vilket leder till att dithret inte är brus utan distorsion. Det man gör är att dithra med tillräckligt högt bittjup. Ett dither på 8 bitar skulle få bort alla kvantiseringsdistorsion inom de 32 första bitarna ur ett fixed-point-perspektiv. Däremot bitarna ner från 33 bitar ner til botten skulle fortfaranda innehålla avrundnigsfel. Och att jämföra upplösningen mellan floating och fixed på det där sättet tycker jag är lite felaktigt. Floating point har fortfarande bara 24 bitars noggrannhet. Sen kan man ju så klart diskutera om det här verkligen spelar så stor roll i ett verkligt perspektiv. Många bra inspelningar har ju gjorts med 16 bitar och låter bra ändå 😛 "While fixed-point protocols are capable of completely removing quantization distortion in favor of quantization noise, and while fixed-point systems are therefore capable of maintaining an infinite dynamic range (though much of it is maintained below the noise floor), and while floating-point systems are not capable of either of these feats, the necessary precision of these systems is limited by the fact that there is an ultimate receiver that has its own limitations. The human ear is the eventual receiver of this material. The human ear has limitations of how low it can hear below a noise floor, as well as how low it can hear in absolute terms. The quantization distortion only need be lowered to a degree that it cannot be perceived by the human ear. Obviously, the concern is that the distortion that is not audible after one process may be exposed throughout additional processes." LÄSVÄRT: http://www.cadenzarecording.com/images/floatingdither.pdf av Nika Aldrich
  23. Vilket program som helst som klarar av stackad inspelning, d.v.s. alla tagning hamnar i ett slags mapp på ett enda spår. Därmed försvinner protools 7 och allt annat blir kvar, ungefär.
  24. Att man säger att protools HD låter bättre än annat beror på att HD kör en internupplösning på 48 bitar fixed, inte 32 bitar float. Visserligen ger 32 bitar float en mer lättanvänd DAW, men eftersom floating point inte går att dithra korrekt så blir PTHD i många fall vinnaren, förutsatt att användaren verkligen använder systemet korrekt. För övrigt är jag en trogen cubaseanvändare, men om det skulle börja handla om att jobba frilansande professionellt skulle jag definitivt överväga att skaffa nuendo. Cubase har ju de facto en viss oförtjänt amatörstämpel och förknippas oftast med demostudios och finniga pirater som precis blivit byxmyndiga. Att ha nuendo ger, förutom automationen (som slår den i protools med hästlängder) och lite filmfunktioner, ett mycket mer seriöst intryck och visar att man verkligen är professionell.
×
×
  • Skapa ny...