MAX 6 is coming out soon

Cycling 74 announced that the version 6 Max will come out this fall. I read about it from ‘Creat Digital music’ blog few days ago that Max6 upgrade will cost 199 usd. but here they seem to change their mind, and it is a free upgrade. That is a smart decision that most of heavy users will need to upgrade and they will be those who promote its use.

Here are the features;

Accessibility

For some of you reading this, getting into Max was no big deal. Maybe
you learned it while in school. Maybe it just clicked for you right
away. Maybe the purchase was a no-brainer. However, for a lot of people
who would love Max, obtaining and learning the software is too much of a
challenge, and we’re committed to changing that. Max 6 is the next step
in our ongoing effort to increase the accessibility of our software.
Let me review a few of the things we’ve already done in this area:

But we’re not stopping there.

  • Effective immediately, we’re lowering the retail price of Max/MSP/Jitter to $399.
    We’re also lowering the price of some of our upgrade and academic
    options. And starting today, if you purchase Max 5, you’ll get an
    upgrade to Max 6 for free.
  • We’re introducing a subscription plan for universities that will
    make it possible for our academic customers to serve to more students at
    a lower cost. For more details, click here.
  • With Max 6, we’ll be supporting a user-driven, machine-assisted
    cross-platform translation project for both the software and the
    documentation, so we can better serve the majority of the world’s
    population that doesn’t speak English fluently.

Now, I suspect you’re curious as to what will be new in the software.
Accessibility is a major theme here too. In Max 6, we’ve focused on
improving the experience for both new and accomplished users. When we
add a new feature, we think carefully about how you’ll learn about it,
even if no one tells you it’s there. You might have seen our series of Did you Know videos.
Even though I think these are great, I would love to get to the point
where no one needs to make another one, because Max holds no secrets.

Performance

The area of performance is where Max 6 will be truly exciting for a
lot of you. The big news is a completely new patching domain, which we
refer to as code generation. Code generation technology will be
available as an inexpensive add-on to Max 6. It focuses on areas where
traditional patching has not been able to deliver the combination of
performance and programmability that we wanted, namely DSP and GPU
programming. What do we mean by “code generation”? Essentially, we
translate the patch you make into text-based source code, and compile it
on the spot. With code generation, we can optimize the entire patch,
something that’s impossible with existing Max-like approaches.

In the DSP realm, our new gen~ object is a new domain of low-level
signal processing operators that let you build recursive filters,
delays, spectral processors, and sound generators, all using 64-bit
floating-point internal precision. Not only do these things sound great,
but the performance gains over equivalent Max patches are simply
stunning. Where you could actually implement the same algorithm with MSP
objects, a gen~ version will be up to 15 times faster. And in many
cases, there is simply no way to implement the same kinds of DSP
algorithms with MSP objects, you’d have to write C code. Not only is
gen~ cross-platform, unlike C code, but in our tests, gen~ operators are
nearly as fast as equivalent MSP objects written in C.

The code generation approach is equally suited to GPU programming for
Jitter. For several years, we’ve offered the ability to write your own
shader programs in Jitter for high-performance pixel processing, but
text-based shader languages are not easy to learn and never felt
completely integrated within the Max environment. Now you’ll be able to
create high-performance image processing algorithms graphically, and our
code generation technology will write the shader program for you. But
the power of code generation extends beyond processing images — you can
also use it to generate materials for shading interactive 3-D objects.
In this application, the code generation technology is automatic — you
just specify the parameters of the materials and we generate the shader
program.

There’s much more to say about code generation, but at this point all I want to say is this: stay tuned — we’ll be showing you much more in the coming weeks.

Code generation hasn’t been our only performance focus. Another major
area has been Javascript, where we’ve integrated the latest Mozilla
runtime engine for significant performance gains. We’ve also exposed an
efficient new 2D graphics API in Javascript that can be used to port
existing HTML5 Canvas code to Max. We now run the audio of every
top-level patcher in its own thread for effortless multicore processing.
Performance improvements have taken place in many other areas as well.

Quality

Another focus of Max 6 has been quality. We think of quality in two
ways: first, the quality of the output and second, the quality of the
experience you have while using the software. In the former category, we
put a major focus on audio quality in Max 6. The cycle~ object now uses
a 16K wavetable for far better signal-to-noise performance. You’ll be
able to use any sampling rate you wish, thanks to high-quality
resampling filters. And, to eliminate errors with large numbers, long
envelopes, and recursive algorithms, MSP processes all audio with 64-bit
precision. Older 32-bit third-party objects are still compatible
however.

And those resampling filters I mentioned? We used MSP to develop
them, using a suite of new filter design and audio analysis tools.

Beyond looking at audio quality, we wanted to help make your time
with Max more enjoyable. To do this means paying attention to every
detail. I think you’ll generally see more clarity and refinement in the
interface. For example, we’ve introduced curved patch cords, which make
an unexpectedly dramatic improvement in understanding how a patch works.

One feature I’m particularly fond of improves the experience of
editing an audio patch with the audio turned on. Whenever you make a
change to your patch, we intelligently crossfade between the old and new
versions, so you never hear a gap in the output. And if you have other
top-level patchers playing audio, they’re completely unaffected by your
edits. This is just one of the benefits of our new audio mixing engine.
Another is that every audio patcher has controls in the toolbar for
muting or adjusting gain without the need to add any objects.

In the Jitter domain, quality means the ability to achieve visual
complexity more easily. One way you can do that is with the new
materials system — an advanced toolset for high quality rendering of 3-D
objects. Other ways we hope to enrich your Jitter work is though better
support for 3-D model and animation files, better support for cameras
and lighting, a new physics engine, and hierarchical animation and
rendering tools.

Workflow

As part of the Max 6 development process, we’ve observed and
interviewed users, from those who’ve never seen the software before to
those who’ve been using it for decades. On the basis of these studies,
we identified areas for improving patching workflow and usability, and
you’ll see the results vividly in Max 6. Just to focus on one area: The
act of making a new object has been dramatically enhanced, with access
to documentation at every step of the process. It begins with the object
box, which now offers you a way to make objects even if you can’t
remember their names. Then there’s the message box, which tells you
about the messages understood by nearby objects as you begin typing.
Arguments and attributes of objects and messages are also displayed as
you type.

A new object called attrui integrates attribute monitoring and
editing, eliminating the need for a lot of patching. Attrui knows the
best way to edit any object attribute. For example, if you want to
change a color, attrui lets you edit it as a color, not four numbers.

We’ve also reorganized Max 6 to show the most common information
first. Every help file now has a simplified initial presentation of the
five or so most basic things you need to know. Advanced features are
shown in a tabbed interface grouped by functional area. We’ve done the
same with our redesigned inspector and object palette.

A common request from educators and more experienced users was the
ability to manage patches that encompassed many files. Max 6 has a new
Project feature, where you can see all the patchers, code, and media
files you’re using. Projects enable you to maintain multiple versions of
files as well as archive and share your work more easily.

The Path to Max 6

Over the next few weeks, we’ll be telling you more about Max 6. I
promise, I’ve only scratched the surface of what we’re up to. If you’d
like to be notified when we release new information about the software,
keep your eye on our website, Facebook, and Twitter.

One of the things that really inspires me is when I get a new piece
of software that is both cheaper than what I’ve been using and better in
every conceivable way. My co-workers and I are driven to do that with
Max. You’ll ultimately be the judge of whether we’ve succeeded with this
new version, but now you know what we’re trying to achieve. Our friends
in the Max community creating extraordinary work deserve nothing less.

reference: http://cycling74.com/2011/07/12/announcing-max-6/

합성이론 10장 : Modulation

합성이론 10: Modulation

처음 9개의 강의에서 정말 여러 가지 분야를 다루어왔지요.  waveforms, filters, envelopes, triggering, gating 등등. 이제 제법 합성에 대해 알아간다고 생각하실지 모릅니다. 아마 우리는 지금까지 waveform을 골라서 원하는 필터를 사용하여 수정하고 envelope옷을 입혀주어서 다이나믹을 만드는 정도는 쉽게 할 수 있게 되었다고 해도 되겠지요? 하지만 이것으로는 우리의 강력한 욕구가 만족되는 것은 아닙니다. VCF나 VCA등을 함께 사용한다고 해도.. 소리는 왠지 살아있지 않은 느낌이 들지도 모르지요. 소리가 삑삑 거리기만 하는 것은 아닌지..
지금까지 놓친 것 중에서 가장 큰 것이 바로 modulation이라는 놈입니다. 이것은 소리에 숨을 더해준다고 해도 과언이 아닙니다. 만약 여러분이 이것을 단순히 비브라토를 더하기 위해서 LFP정도를 사용하는 거라 생각한다면 큰 오산입니다.. Modulation은 의심의 여지없이 가장 깊고 난해한 부분입니다. 제가 처음 전자음악 이론을 공부할 때 Modulation 에 대한 이해가 쉽지 않았음을 아직도 정확하게 기억을 합니다. 또한, 많은 전자음학도(?)들 역시 여전히 Modulation 에 대해 잘 알지 못하고 있음을 알고 있습니다. 자.. 모르면 배우면 되는 것 아닐까요? 이제 단순한 접근으로부터 시작해 봅시다.

1. 단순한 3개의 Modulations

그림 1 은 우리가 이전에 공부한 1~9장까지의 시리즈에서 가장 중요한 요소들을 합쳐놓은 것입니다. 단순한 것에 연결되어있지만 신디사이저 형태에 유용한 형태입니다. 보다시피 신호소스가 tone generator(예:oscillator)로 들어갑니다. 출력은 처음에 Filter를 거치고 amplifier를 거쳐서 나가게 됩니다. contour generators는 소리에 ‘shape’를 입혀줍니다. 따라서 filter와 amplifier가 소리를 밝게 하고 크게 하는 등의 효과를 줍니다.

지금 어떤 사람이 바이올린이나 첼로를 연주한다고 가정해봅니다. 여러분이 알다시피 연주자가 악기의 어느 목 부분을 누르는 것에 따라 소리의 음높이가 결정이 되죠. 더 짧게 현의 길이가 주어질수록 음높이는 더 높아집니다. 지금 연주자가 연주한다고 상상해보고, 그 사람이 손목을 앞뒤로 흔드는 것을 상상해보세요. 크게 생각해보면, 그가 하는 것은 편의 길이를 살며시, 아주 적은 양이나마 길게-짧게-길게-짧게 해주는 것입니다. 맞지요? 그리고 여러분이 아시다시피 이것이 바로vibrato입니다.

그림 2 는 짧은 비브라토가 어떤 음의 음높이를 변하게 해주는 순간을 보여줍니다.

마찬가지로 그림3 은 vibrato의 한 주기 동안에 파형의 변화를 보여줍니다. (과장된 형태임)

이것을 analogue synth에서 만드는 것은 쉽습니다.  여러분은control voltage를 oscillator에 적용시켜서 음높이를 살짝 변형시킬 수 있습니다.

이 그림 4를 보시면 중간에 CV(the modulating waveform)dl LFO에 적용된 것을 볼수있습니다. 또한 그림을 잘 보면 VCA 가 modulating waveform의 amplitude에 관여한다는 것을 알수 있구요. 그리고 VCA 그 자체는modulation wheel로 조절됩니다. VCA 와 wheel 은 여기에서 아주 중요한 요소가 됩니다. 왜냐하면, 그것들 없이 vibrato의 양을 조절하는 것은 아주 복잡한 일이 되어버리지 때문입니다. 그리고 그렇게되면 음악적인 소리를 만드는것도 힘들게 되겠지요.

-Tremolo
vibrato에서 tremolo로 옮겨봅니다.  두 단어를 놓고 보니 여러분들 중에서 아.. 핵갈려. 하시는 분들이 있지요? 그럼 제가 명백하게 구분해드릴게요.

-음정이 변화한다:  Vibrato
-소리의 크기가 변화한다: Tremolo

입니다. 즉, 아까처럼 현악기 주자가 현을 길게 짧게 하는 것을 vibrato로 기억하시면 쉽겠죠? 그럼 Tremolo를 똑같이 현악기로 기억하려면, 연주자가 아까와 반대로 오른팔, 활대를 쥔손을 이용해서 힘을 주었다가 뺐다가 하는 것을 상상해봅니다. 아주 빠른 트레몰로를 만들긴 쉽지 않겠지만, 이론적으로 적용되고 기억하기 쉬운 예가 되겠습니다.

그림6은 그림3과 같은 양상이지만 그림은 아주 다른 모습을 보여줍니다. Frequency는 지속되지만 그 level은 시간에 따라 변화를 것을 확인하세요.

지금 우리는 두 가지 방식의 차이를 이해하고 있습니다. 둘간의 synthesizer 차이를 아는 것은 쉽습니다. 하지만 vibrato는 어떤 것이 oscillator의 ‘pitch’를 변화시켜 주어야 합니다. 하지만, tremolo는 signal chain의 끝에서 오디오 amplifier의 ‘gain’을 변화시켜 줄 것이 필요합니다. 다음 그림 7에서 확인해보세요.

세 번째로 소개할 그 녀석은 우리가 단순한 신디사이저의 voltage-controlled filter 을 변형시킬 때 발생합니다. 그 결과는 아마도.. 조금 더 어렵게 느껴질 것입니다. 실제로 여러분은 3개의 다른 modulation을 단순히 LFP의 frequency를 변화시켜주어서 만들어 낼 수 있습니다. 가장 느린 진동을 만들어서 (약 0.1Hz정도?) 여러분은 아주 느린 filter sweep을 만들어서 쉽게 확인해 볼수 있습니다. 그 속도를 1 ~ 2Hz 로 증가시키면 이 소리는 점점 wah-wah effect처럼 들리게 됩니다.(그림10) 만약 여러분이 계속적으로 소리를 증가시키면 (10~20Hz), 여러분은 아마도 으르렁거리는 소리를 듣게 됩니다. 그리고 이런 효과는 금관악기소리를 만드는데 유용하게 쓰입니다.

이런 modulation는 그리기도 쉽지 않습니다.(그림9)

왜냐하면 모듈레이트된 filtering때문에 일어난waveform에있는 변화가 아주 미세하기 때문입니다. 하지만 여러분이 아주 쉽게 소리의 차이를 귀로 확인할 수 있습니다. 그러나, cutoff frequency 가 낮을 때, 그리고 amplitude 가 아주 작게 떨어질때에는, 그 변화를 보기위해서 oscilloscope가 필요합니다.

물론 왜 이런 모듈레이션들이 서로 다르고 이것이 LFO와 연관되어있는지 특정한 이유가 없습니다. 더 나은 synth는 개별적인 LFOs를 사용하여 여러분이 각각의 소리에 적용할 수 있게 하며 각각 효과의 depth를 조절할수 있게 해 줍니다. 이것을 하기 위해서 장비들은 modulation wheels, aftertouch (pressure sensitivity), foot pedals등을 가지고 있는것입니다.

그림 11은 위에서 말했듯이 신디사이저가 여러 개의 modulation controller를 사용하는 것을 보여줍니다. 좀 겁나죠? 하지만 잘 보면 그다지 여려운 그림은 아닙니다.
그러나 이것이 세개의 modulation VCA들의 level을 control하는 것이 아닙니다. 따라서 여러분은 부수적으로 VCA들에 controller들을 연결시키는 것을 생각해야 합니다.

2. 또다른 단순한 Modulation
또다른 것이 기다립니다. 이것은 가장 좋은 아날로그 신디사이저와 대체될수 있습니다. 이것을 이해하기 위해서 low-pass filters 에 대해서 이야기했던 부분을 다시 한번 생각해봅니다. (합성이론 4장)
그림 12는 square wave(pulse waveform)입니다.  분명 square wave는 waveform에서 특이한 놈입니다. 이것은 신호가 꼭대기, 바닥 에서만 존재합니다. 따라서 이런 형태를 보이지요. 그리고 그 ratio는 천장, 바닥에서 얼마나 오래 머무르느냐에 따라 결정되는것이지요. 우리는 이 ratio를 ‘duty cycle’이라 합니다. square wave 가 정확하게 꼭대기에서 할당시간의 반을 차지하기 때문에 비율(ratio)은 1:2가 됩니다. 그리고 우리는 duty cycle이 50%라고 합니다. 만약 1:3이 되면 33.3%가 되겠죠. 그리고 꼭대기에서 1/3의 시간을 할애하겠습니다. (그림13)

그리고 1/4은 25%가 되고…..(그림 14)

(참고:50%보다 더 큰 duty cycle에 대한 언급을 볼수 있는데, 필수적으로 어떤 수 X가 0~50에 높였을 때에 duty cycle  (50+X) percent 는 (50-X) percent와 같게 되지만 ‘ phase ‘는 반대로 됩니다.)

서로 다른 duty cycle을 가진 Pulse waves은 아주 다른 소리를 만들어 냅니다. 좁은 cycles (5~10%)은 아주 가늘고 비음과 같은 소리를 냅니다.(오보에 상상) duty cycle이 50%에 가까워지면 소리가 두꺼워 진다고 생각할수 있습니다. 정확히 50%가 되면 텅빈소리와 같은 것을 만들어냅니다. 네..슬슬 감이오죠? 언제나 예로 나오는 바로 그 클라리넷소리!

이런 음색변화는 어디서 온다구요? 네.. 바로 어떤 하모닉스가 존재하느냐 에 따라 다르다는 것 제가 저.. 앞에서 이야기 한적이 있습니다. 그리고 그 각각의 partial이 지닌 amplitude의 영향도 있겠습니다.
pulse wave 는 sawtooth 와 같은harmonic 분배를 가집니다. 하지만 한가지 다른점은 duty cycle of 1:n (n:정수) 모든 n번째harmonic은 spectrum에서 빠져있다는 것입니다.!! (이해가 안가시면 합성이론 1장 참고)

다시 square wave를 봅니다. 이것은 duty cycle 이 1:2이기 때문이 우리는 모든 두번째 배음이 빠져있다는 것을 생각할 수 있습니다. Pulse wave관계에 대해서 정의한 우리의 법칙은 여기저기에서 많이 등장하지만 종종 이해되지 않은채 알고있는 경우를 보게됩니다. : 모든 짝수 하모닉이 빠져서 square wave는 1st, 3rd, 5th, 7th,.. 의 홀수 하모닉으로 구성되어있는 것입니다.

다시 위의 그림 13 , 14를 봅니다. 이것은 duty cycles 1:3, 1:4를 가집니다. 결과적으로 33.3% pulse wave가1st, 2nd, 4th, 5th, 7th, 8th…harmonics 를 포함하고 있습니다.(모든 3번째 harmonic 빠짐), 그리고 25 percent pulse wave 는 1st, 2nd, 3rd, 5th, 6th, 7th, 9th, 10th…….. harmonics .(모든 4번째 harmonic 빠짐)
그럼 만약에 이 숫자가 정수가 아니면 어떤 결과가 나올지도 궁금해집니다. 예를들어 만약 28.5%의 pulse wave면? 28.5 percent 은 1:3과 1:4의 중간 어디엔가 존재하지요? 모든 3번째 하모닉이 다소 감소하고, 4번째도 그렇습니다. 그러나 signal로부터 하모닉스가 아주 없어지지는 않습니다.

이제 어느정도 감을 잡고계신가요? 이제 좀 끝나가나 싶지만 이제 시장입니다. 이제 우리는 ‘Pulse Width Modulation’을 만들기 위해서 pulse widths 와 modulation의 지식을 결합해 볼 것입니다………
이것은 두번째 CV input을 oscillator로 연결합니다. (frequency를 modulate하는 대신) 이것은 duty cycle을 변화시킬수 있게 해 줍니다.!! (cool~). 만약 LFO 가 modulating CV를 제공하면, 결과가되는 waveform은 그림 15와 같을 것입니다.

이것은 그림 16에 의해서 만들어집니다.

이 그림 16은 일반적으로 풍성한 합창 같은 소리를 만드는데 사용됩니다. 비록 Pulse Width Modulation이 주로 pulse waves에 적용되지만 또한 여러분은sawtooth waves에도 적용할 수 있습니다. 물론 여러분이 이것을 위와 똑같이 duty cycles로 적용시키는 것은 아닙니다. 이것은 또다른 범위의 섬세하게 다른 음색을 만들어 줍니다.
Pulse Width Modulation은 string ensemble sounds를 만들거나, 풍성한lead synth patch에 유용합니다. 하지만 이것을 다른 chorus effect와 혼동하면 안됩니다. 들어오는 소스에 각각의 harmonics의 amplitude를 modulating하는것과 독창적인 소리를 만들어 내는 부분 등에서 이것은 다소 차이가 있습니다.

3. 들을 수 없는 저 음속에서부터 Audio Frequencies까지
모든 형태의modulation은 하나의 공통점을 가집니다. : low-frequency oscillators를 modulating control voltages로 사용한다는점.
그러나 만약 우리가 oscillator, filter, amplifier (또는 pulse width까지)를 audio-frequency (AF) signals 을 이용하여 modulate하면 어떨까요? 우선 우리는 아마 아주 빠른 vibrato, tremolo, growl(으르릉소리), 또는 Pulse Width Modulation,을 들을 수 있다고 생각할수 있습니다. 그러나 그렇지 않습니다. audio frequencies를 modulate하는 것은 완전 완전 다른 이야기입니다. 그러나 이것은 다음 시 간 에 계 속 됩 니 다!!!

Sonic Screens – Call For Multichannel Works

*Sonic Screens – environmental music listening sessions*

*Live mixing and spatialization by U.S.O. Project (Matteo Milani & Federico
Placidi)*

*
*

*Call for multichannel works*

*U.S.O. Project* is pleased to invite submissions of fixed media sound works
for the second edition of “Sonic Screens”, a journey among different
electroacoustic Soundscape compositions.

*Sonic Screens* is an annual event that will take place during two
acousmatic evenings in Milan during Fall 2011.

*Sonic Screens* aims to render the endless possibilities of life and its
surroundings experienceable in our conscious activity, trying to deal with
the possible infinites of the listening experience, both in their objective
and manufactured dimensions.

*“Listening to the environment, contextualizing it objectively and
creatively has always been a priority of the work of U.S.O. Project.
Free from any pseudo-environmental or socio-political implication, the
continuous work on sampling, processing and transfiguration of found sound
and carefully preserved in memory of a digital recorder, has always played a
central role in our compositional practices.
U.S.O. defines Soundscape as the expressive and narrative richness that
comes from the reciprocal and continuous interaction of multiple sound
sources from the real world, and other phenomena which are perceptible and
measurable only through proper and adequate transduction (electromagnetic
signals, for example).
A Soundscape is also an opportunity for reflection and imagination that has
little to share with the real world.
A Soundscape can be a place of the mind, a reminiscence of a future
experienced in dreams, lands far away in space and time.” – Matteo Milani &
Federico Placidi<http://www.soundesign.info/reviews/movement-of-acoustic-images-a-workshop-in-italy-on-field-recording>
*

*
*

Composers and sound artists are invited to submit multichannel works, up to
8 channels. The assignment of channels to speakers must be clearly indicated
in the submission. Works of any duration will be considered although pieces
of under 16 minutes will be given preference.

The performance will take advantage of Ambisonics sound diffusion practice,
creating an immersive and uninterrupted sound flow between different works
from selected international artists.

The material will be transcoded in real time to *2nd Order B-Format* (via *
ICST* Ambisonics Externals for
MaxMSP<http://www.icst.net/research/downloads/ambisonics-externals-for-maxmsp/>
).

The recordings of the concerts will be available for streaming and released
in binaural format for headphone use. The ownership of the tracks remains to
the authors.

*Submissions need to include:*

1. a stereo version of the piece
2. individual mono files for each channel
3. channel configuration
4. sample rate
5. program notes
6. brief biography

While the composers of the selected works are encouraged to attend the
event, attendance is not required for a work to be presented.

There is no registration fee.

The deadline for submission of works is October 31st, 2011.

*Material Submissions*

Please send download links to your work using one of the many file delivery
services (yousendit.com, sendspace.com, gigasize.com, wetransfer.com, etc)
in .zip or .rar format. Please do not email file attachments.

Electronic submissions should be sent to:

*[submissions at synesthesiarecordings dot com]*

For more information, email contact:

*[info at usoproject dot com]*

*Terms and Conditions*

Each participant may submit up to two works.

[Date and Venue To Be Announced]

[SchermiSonori2011-CallForWorks.pdf<http://www.synesthesiarecordings.com/docs/SchermiSonori2011-CallForWorks.pdf>
]

*“The essential difference between an electroacoustic composition that uses
pre-recorded environmental sound as its source material, and a work that can
be called a soundscape composition, is that in the former, the sound loses
all or most of its environmental context. In fact, even its original
identity is frequently lost through the extensive manipulation it has
undergone, and the listener may not recognise the source unless so informed
by the composer. In the soundscape composition, on the other hand, it is
precisely the environmental context that is preserved, enhanced and
exploited by the composer.” – Barry Truax*

[Non-text portions of this message have been removed]