합성이론 9장 : VCA 에 대하여

합성이론 9: VCA 개요


제가 VCA에 대해서 언급했었던 기억이 납니다. Voltage Controlled Amplifier,  ‘VCA’, 라 불리는 이것은 analogue synthesizer 에서 아주 중요한 역할을 해 줍니다. Digital로 컨트롤되는 analogue synth는 ‘DCA’라는 것을 대신 사용하게 됩니다. 반면 pure digital synth와 sampler들은 time-variant amplifiers인’TVA’, 을 가지게 됩니다. 따라서 이번에는 VCAs에 초점을 맞추어서 여러분이 원하는 소리를 만드는데 보탬이 되어 보도록 하지요.

1. 두가지 형태의 VCA?
첫째로 우리는 참 혼동, 또는 착각하기 쉬운, audio signal chain에서의 amplifiers와 Voltages를 컨트롤하기 위한 것과 차이를 알아야 합니다. 합성이론 3장에서 보았었는데 여기 위의 그림 1을 보면, tone generator 와 amplifier로 구성된 단순한sound generator를 볼 수 있습니다. 분명 이 그림에서 amplifier의 역할은 hi-fi나 car stereo에서 하는 amp와 비슷한 역할을 하겠지요. 이것은 신호를 더 크게 해주겠지요.

Amplifier란 무엇일까요? 만약에 여러분이 기타리스트라면 아마 이것은 소리를 증폭하기 위해 distortion이나 다른 effect를 만드는 것이라고 말할 수도 있겠지요. 만약에 여러분이hi-fi 에 관심이 많은 사람이라면 이것을 거대하고 제어하기 쉬운 값비싼 power supply라고도 말할 수 있지 않을까요? 그러나 엔지니어라면, amplifier은 입력신호의 amplitude A1 이 모양의 변화 없이 A2로 변화시키는 장치라고 말할 것입니다.

하지만 분명하게 중요한 것은 A2 가 A1보다 크다는 것입니다. 즉, 신호는 전보다 커진다는 것이죠. 하지만 만약 그 A2 가 더 작다면 소리는 더 조용해지겠죠. 단순하죠? 그러나 이렇게 간단한 문제로 치부할 것은 아니랍니다. 우리가 알아야 하는 건 ‘어떻게 하는데?’입니다. 이것을 아주 단순하게 정의해보지요. A2 에서 A1 의 비율을 계산하고 그것을 amplifier의 ‘Gain’ 이라고 해봅니다.(Equation 1). 예를 들어 A2 가 A1의 두 배라면, 그 비율은 ‘2’ 가 되고 Gain은 2가 되겠지요. 하지만 이렇게 2배가 한다고 2배로 소리가 커지는 것이 아닙니다. 우리의 귀는 이런 방식으로 소리를 처리하지 않습니다.

하지만 지금은 단순하게 그냥 라디오에의 volume control 에 대해서 생각해봅시다. 여러분이 소리의 볼륨이 증가하고 감소한다고 이야기 할 때에 Gain이 조정되는 것임에 분명합니다. Figure 2는 이런 조절의 예를 보여줍니다.

이 그림에서 receiver회로는 low-amplitude signal을 만들며 이것은 직접 preamplifier를 통과합니다. 이것은 signal을 ‘line level’로 증폭합니다. 출력은 이때에volume control을 통과합니다. volume 손잡이가 시계방향으로 끝까지 올라가면 signal은 변화가 없고 line level에서 the power amplifier로 통과합니다. 그리고 시그널은 그 레벨로 증폭됩니다.
정리해볼게요.

1.preamp로 거치는 low-amplitude signal생성
2.signal을 line lever까지 증폭
3.volume control로 감
4.볼륨을 최대치로 해도 시그널은 영향을 받지 않고 line level에 통과
5.power amp로 간다
6.그 레벨로 소리 증폭

그러나 여기서 volume control을 버리면 소리가 줄어들게 됩니다. 그 이유는 위의 3번에서 volume control로 쓰였던 potentiometer가 signal의 양을 점차 줄이면서 power amp로 가게 됩니다. 이 볼륨 손잡이는 amplifier의 하나로 정의되어야 합니다. 이것의 Gain은 1을 넘지 않고 off일 때는 Out/Input비율은 0이 되는 것, 즉, Maximum일 때는 그 비율이 1이 된다는 말입니다.
따라서! Gain은 언제나 0과 1에 놓인다는 사실을 알았습니다. 그리고 이것을 Attenuator(감쇄기)라고 합니다.

중요한점은 하나 이상의 amp와 attenuator를 연결하여 사용할 때 전체 system의 Gain은 각각의 Gain을 곱하여 나오게 됩니다.
(pre-amp Gain * attenuator Gain * power Gain)

,2. 더 개선된 회로도 만들기
위의 그림 2는 이해하기가 제법 쉽지요. 하지만 그 회로는 단순하게 예를 들어 설명하기 위한 것이라서 썩 좋다 볼 수는 없겠습니다. 왜냐하면 audio signal 이 그냥 attenuator를 통과하는 것에 불과하니까요. 사실상 이런 회로는 distortion과 같은 부작용을 일으키기도 합니다. 이런 것을 피하기 위하여 더 나은 회로도를 작성해 볼 필요가 있습니다.

Figure 3이 바로 그런 것입니다. 이것은 같은 요소로 이루어져있지만 volume control 손잡이가 지금 voltage source를 줄여서 preamp의 Gain을 조절합니다. 다시 말해서 우리는 preamp를 Voltage Controlled Amplifier로 정의 내릴 수 있다는 것이 됩니다. 그리고 그audio signal 는 더 이상 직접적으로 volume control을 거치는 것이 아니라는 이야기입니다. 일종의 안전장치같이 말이에요.

3. Radio 에서 Synthesizer까지
이제 라디오에서 단순한 analogue synthesizer까지 가보는 겁니다. 분명, receiver 회로 에서 만들어지는signal은 어떤 것이든 가능하겠죠? 마이크로 들어오는 연설이 될 수도, Beethoven심포니 일수도, saw tooth wave일수도 있다는 말입니다. ‘receiver 회로’ 를 ‘tone generator’라는 말로 바꾸어 보는 것은 어떨까요? 그리고, 그 다음에 그림에 있는 power amplifier를 생각해봅시다.  몇몇의 합성기기에 있는built-in speakers들은 이런 power amp를 가지고 있지요. 그러나 대부분은 외부장비를 사용해서 쓰지요. 그 결과로 우리의 block diagram에서 ‘power amplifier’가 빠져있습니다.

지난번 합성이론 3장에서 우리는 volume control을 controller circuit로 이야기 했던 기억이 나시는지요. 위의 그림 4에서는 지난번처럼 했던 것과 같은audio signal을 보여줍니다. 그러나 preamplifier (줄여서’Amplifier’) 는 contour generator에 의해 조절되고 trigger에 의해 trigger됩니다. 이렇게 Figure 4 는 Figure 3는 아주 달라 보입니다. 그러나 이것은 generator, amplifier, volume control의 관계상에서 다른 점이 없습니다. 그럼 자세히 살펴보지요.

Tone Generator 가 ±2V로 시그널을 만들어 낸다고 해봅시다. 또한 contour generator 가 0V 에서 +5V 로 ADSR envelope을 만들었다고 해 봅니다. 그리고 VCA 가CV input에 0V가 올 때 아무것도 출력하지 않는다고 가정하면, 그것은, CV 입력이 +5V일 때에 ±10V의 maximum audio signal amplitude을 출력합니다. 즉, 그 amplifier는 maximum Gain 이 5 (G=10V/2V) 이며, minimum Gain 은 0 (G=0V/2V)이라는 이야기가 됩니다. 그리고 마지막으로 amplifier의 response 은 ‘선형적’입니다. 예를 들어CV input이 1V 은 Gain 2; CV input 이 2V면 Gain of 4를 만들어낸다. 이것은 즉, audio signal Gain 의 양은 amplifier의 CV input에 적용되는 contour 의 level에 비례한다는 것. 복잡해 보이지만 Figure 5를 보면 더 분명해집니다.

4. Initial Gain
이만하면 충분하지 않냐구요. 않습니다. 하하..여러분 synthesizer에 판낼에  ‘Initial Gain’ 또는 ‘VCA Gain’라고 표시된거 본적 있으신가요? 이것이 바로initial CV, 또는 ‘offset’을 Contour Generator 가 만드는CV 에 첨가하는 것입니다. (Figure 6,).

그래서 예를들면 우리가 Figure 5 에서Initial Gain +3V을 더했다면, 우리가 얻는 것이 바로Figure 7이 됩니다. 이 offset은 즉각적인 효과를 가집니다. —  VCA 는 항상 0보다 큰 Gain을 만들어 내라고 말합니다. VCA 에 보여진 CV 는 계속적인+3V offset을 가집니다.

5.숨좀 돌리고...
지금까지 본 것을 가만 생각해보면 VCA 는 끝이 없이 증가할 수 있는 것처럼 보여집니다. 다시 말하면 여러분이 얼마만큼 증폭을 원하는지에 상관없이 이놈이 계속 증폭시켜줄 것처럼 보입니다. 하지만, 물론 이것은 불가능하지요. 만약에 능력 이상의 것을 요구하면 이것도 특정 방식의 distortion을 만들어냅니다.

다시 Figure 5를 봅니다. VCA 의 maximum output 을±10V로 했었지요? (CV 가 +5V일 때) 즉 우리가 만약에 0V 을 +8V contour를 동반한 +5V ADSR contour로 대체하면(Figure 7)? 분명 그 contour의peak 에서, VCA 는 시도는 하겠지만 ±16V 를 만드는것에는 실패하게 됩니다. ±10V이상을 넘지 못하기 때문에, signal 은’clipped’됩니다.(Figure 8)
ADSR contour의 주기 동안에 발생하는 출력 wave를 잘 살펴보면 우리는 원래 입력 시그널의 sawtooth shape 모양이 더 이상 출력에서 찾아볼 수 없음을 알게 됩니다. 그 Wave의 ‘정상’ 은±10V 제한위로 증폭하지 못하는 amplifier에 의한 Attack 과 Decay 단계에서 다시 구정되고 그 결과는 harsh distortion (‘clipping distortion’) 을 가집니다.

6.VCA의 또다른 사용!
지금까지 이야기한 VCA 는 모두audio signal path에 있습니다. 그러나 현실적으로 VCA의 대다수는 여기에 쓰이지 않습니다. 그것은 sunthesizer내에서 control voltage path로 쓰입니다.

Figure 6을 다시 봅니다. 이것이 Attack 의 끝에서maximum +5V를 가진ADSR contour를 출력한다는 것을 기억하시지요. 지난달 이야기했던 것으로 되돌아가 봅니다. analogue contour generators의 다수가 Attack끝에 level을 더 이상 제어하지 않았던 것 기억하시나요?( A, D, S, R의 setting과 관계없이), 그Attack Level은 언제나 +5V 입니다.(또는 장치의 성능에 따라 다름). 우리가 이미 이야기했듯, 이것은5의 gain을 VCA에서 만들어 냅니다. 그러나 우리가 드라마틱하게 signal에 영향을 미치고 싶지 않을 경우에는 어떻게 해야 할까요?
Figure 9를 봅니다. 보다시피VCA 이 control signal path에 있습니다. 이것은 CV에 의해 제어되고 그것은 또한attenuator에 의해 제어됩니다. 이VCA 는 Gain을 (attenuator에 위치에 의해 결정되는) ADSR contour에 적용시켜서 여러분은 그것을 shape의 변화 없이 attenuate/amplify 할 수 있게 되는 것입니다.

그 결과는 만약, ADSP이 단지 signal amplifier 에 영향을 주는CV라면 별로 중요하지 않을 것입니다. 결국, 그amplitude를 줄이는 것은 synth 의 최종 출력을 줄이는 것과 별로 다를 것이 없겠지요. 단순히 외부 amplifier를 줄이는 것과 같이 말이지요. 하지만 그 ADSR 는 단순한 CV가 아닙니다. 그림 9에있는 Initial Gain처럼 여러분은 LFO또는 다른controller들로 audio signal amplifier의 action을 변화시킬 수 있습니다. 이 경우에 ADSR 은 initial level 과 다른 modifier와 관련된 signal을 변화시키는 ‘범위’를 변화시킵니다.

이것도 복잡합니다. 더 분명하게 하기 위해 다른 예를 보지요. Figure 10 은 Figure 9와 비슷하지만, CV들이 amplifier 가 아닌 low-pass filter를 제어하고 있습니다. 보시다시피,  꼭대기에 있는fader 는 지금 filter의initial level이고, 이것을 ‘cutoff frequency’라 부릅니다. 그리고VCA 는 여기에 적용되는contour를 제어합니다. 분명히 여러분은filter가 여러분이 만드는 소리마다 전부 적용되는 것을 원하지 않을것이지요. 따라서 대부분의 synth 는 여러분이 VCA를 사용하여 그 contour를 attenuate 하게 해 줍니다. 보여진것 처럼요.

7. Real VCAs
VCA에 의해 연주될때의 중요점을 우리가 sunthesis를 생각할때에 줄곳 지나치게 되게 됩니다.참으로 우리가 많은 analogue synths의control panel들을 보면 ‘Amplifier’, ‘VCA’라고 쓰여진 것이ADSR contour generator에 속해있고 아마도 envelope level control ( ‘Amount’) 또는 Initial Level control 로 사용되는 것을 볼수 있습니다. 이것이 바로 많은 경험이 없는 사람들이 그것을 contour generator (CV path의 VCA) 또는 audio signal amplifier 와 구분하는데 힘들어 하는 점입니다. 이와 비슷하게, filter senction은 종종 second contour generator 와 또 다른 ‘Amount’ control 을 종종 포함할 것입니다. 이말인 즉슨 물론, VCF section 에도 VCA들이 있다는것입니다.

Figure 11 은 4개의 input과, 5개의 손잡이, 그리고 하나의 출력을 가집니다. 2개의signal input(SIG 1 IN, SIG 2 IN) 이 있고 그것은 module에 signal mixer가 있다는 것을 의미하기도 합니다. 또한 두 개의CV input이 있고 그것은VCA의 amplification을 조절하며, 이 말은 그 안에 CV mixer가 있다는 것을 의미합니다. 그CV input들은CV1-IN LIN 와CV2-IN LOG라고 표시되어있습니다. 각각 입력은 level control이 서로 연관 지어져 있으며 Initial Level control은 우리가 위에서 이야기한것과 같습니다. Figure 12처럼요.

우리는 이것을 단순하게 VCA라고 하지는 않습니다.

8…그리고 마지막으로
끝내기 전에 한가지 더 생각해 볼 것이 있습니다. 우리는 여태껏 main signal path를audio signal path로서만 생각해 왔습니다. 그러나 우리가 그림 4, 5, 6, 8, 9, 10, 12에서 CV들을 사용하는 것을 멈추면?

VCA의 가장 흔한 사용목적 중 하나는 또 다른 CV를 사용해서 CV의 Action을 변화시키는 것에 있습니다.using other CVs;
그리고 또 중요한 것은

반드시 audio signal의 amplifier와 control voltages를 변화하는것에 사용되는것들과의 구분을 두어야 한다는 것입니다.(맨처음에 말했듯이)
그리고 여러분이 하나 이상의amplifier 또는 attenuator를 가질 때 마다, 단순하게 그 각각의 Gain들을 함께 여러 개 사용하면, 언제든지 전채의 시스템의 Gain을 계산할 수 있다는 것입니다.
이것이 자유롭게 patch될 수 있는 synth가 아주 강력한가에 대한 하나의 예가 될 수 있겠습니다. 따라서 여러분이 다른 또다른 신호를 이용하여서 아주 다이나믹하게 어떤 신호든 제어하고 변화시킬 수 있다는 것입니다.

합성이론 8장 : Envelopes 살펴보기

합성이론 8: Envelopes 살펴보기

많은 신디사이저들이 사실상 ‘합성(synthesize)’을 하지 않고 있다는 사실을 알고 계신가요? 이들 중 많은 것들은 단순하게 contour generators, envelope, transient generators등만을 사용하고 있기도 합니다. 많은 아날로그 신스들이 지난 시간에 이야기 했듯이 ADSR contour generators을 사용하구 있음은 의심의 여지가 없지요. 하지만 여러분 ADSR contour generators만을 사용하여 만들 수 없는 소리는 수도 없이 많다는 사실도 알아야 합니다. 그렇다면 또 무엇이 필요한지 살펴보지요~.

1. Bold & Brassy
확 내뿜는듯한 brass sound를 만든다고 생각해봅시다. 우리 귀를 사용했을 때, 우리는 이 소리가 고요한가운데에서 (silence) 시작된다고 알고 있으며 음이 시작될 때에 ‘spit’음과 같은 것을 만들어 낸다고 알고 있지요. 그리고 그 소리는 아주 낮은 레벨로 떨어지고 고용한 음색이 온후에 바로 아주 큰 볼륨으로 천천히 치켜 올라갑니다. 그리고 음표는 빠르게 쇠퇴하고 연주자는 부는 것을 멈춥니다. 볼륨과 음의 밝기는 이때에 그림 1과 같이 그려질 것입니다.


자 지금 일반적인 4-단계의 ADSR envelopes 가 전통적인 방식에 의해 보여진 것입니다.(그림2) 그렇다면 왜 우리는 전통적인 이 방식으로는  brass sound를 제대로 만들지 못하는 걸까요? 그 이유는 단순한 4단계의 ‘4’라는 숫자의 한계점뿐만 아니라, 그것이 우리에게 주는 많은 다른 한계점을 지니기 때문입니다. 무슨 한계점이냐고요?

1.        시작이 언제나 0이다.
2.        윤곽의 attack phase가 언제나 상승한다.
3.        ADSR은 언제나 어택 이후에 최대값의 레벨까지 상승한다.
4.        decay는 언제나 어택에 의존하여 하향된다.
5.        sustain level은 언제나 decay의 끝에 도달하는 그 지점에서 시작한다.
6.        sustain level은 지속적인 볼륨만을 취한다.
7.        Release는 sustain의 끝에서 시작한다.
8.        release는 언제나 하향한다.
9.        Release는 언제나 0에서 끝난다.
맨 처음 brass사운드를 만들 때라면 3번과 5번의 문제점이 가장 큰 문제가 되겠지요.

2. Classic으로 돌아가보자
지난챕터를 잘 읽어보셨다면 어려움 없이 잘 보실 수 있으시리라 생각합니다. modular synth 에서Control Voltage mixer를 사용하여 여러 단순한 simple envelope generators를 사용하여 더 복잡한multi-stage envelopes을 만들 수 있고, 예를 들어 이런 것들이 처음과 같은 spit brass contour를 만들어 줄 것입니다. 그러나analogue modular에서는 쓸모 있는 polyphonic sound에서는 어려움을 겪게 될 것입니다. 하지만 걱정하지 마세요. 많은 non-modular synths를 사용할 수 있고 그것이 ADSR generators 이외에 것을 가능하게 해 줍니다. (예를 들어 Korg MS20와 같은). 이것은2개의contour generators를 가지며, 그 중 하나는 5단계, 그리고 하나는 3단계를 가집니다. (DAR envelope: Delay, Attack and Release, 그림 3).

이것은 보시다시피 노트 하나를 시작한 후에, 그리고 contour가 시작되기 전 시간의 길이를 결정하는 delay를 program 해 줍니다. (딜레이 된 vibrato).
5단계의 ADSHR에서는 ‘H’를 제공하는데 이것은 Hold입니다. 그림4 먼저 보세요.

어라…라고 말씀하고 계시죠? Gate가 열린 이후에 한동안 sustain되어있지요. 이것은 일반적으로는 여러분이 키를 놓은 순간 이후에 그 노트가 hold되는 데에 사용됩니다. 따라서 손이 다음 키를 누를 수 있는 시간을 주지요.
또 다른 예를 보지요. 그림 5를 보세요

이것은Initial Level control, 이라 하며 이것은 Attack Level control이기도 합니다. 더 편이한 Attack, Decay, Release times을 제공해 줍니다. (see Figure 5 above). 보기에 ADSR과 비슷하면서도, 더 중요한 차이점을 가지지요. 예를 들어 Initial Level 과 Release의 끝부분이 최소값이 아니라는 것이지요.또한 Sustain 단계가 지정되어있지 않습니다. Decay 는 지수곡선으로 0까지 이릅니다. 멋있지 않나요?!!

3. From Dinosaurs To Digits
우리가 이야기한 모든 악기들은 knobs또는 sliders를 이용하여 내분의 저항을 바꾸어 회로의 응답을 컨트롤 한 것입니다. 이 응답이라는 것은 아마도 예를 들어.. oscil의pitches, 필터의 cutoff frequencies 또는 contour generators의 time constants등등이 되겠지요
그러나 많은 이런 합성은 마이크로프로세서가 많은 메모리와 합성 기능 등을 제어하기 위하여 사용되는 analogue/digital hybrids 입니다. 무슨 말이냐고요? 쉽게 설명하자면 그것들이 사용하고 있는 것은 analogue-to-digital converters 들이라는 것이죠. (아하!) 따라서 voltages를 숫자로 컨트롤하고 이 숫자들은 다시 voltages 로 바뀌어서 소리를 만들지요. 하지만 이것이 메모리에 저장될 때에는 또다시numeric form 입니다.
아시다시피 microprocessors handle numbers 들은 0과 1의 binary지요. 우리는 이것은 ‘bits’라고 하죠. 그리고 이것을 얼마나 사용하느냐가 바로 어떤 주어진 파라매터를 사용할 때에 ‘정밀도’를 결정합니다. 많은 혼합된 합성 hybrid synths 는 5개의 bits를 사용하여 중요한 값을 나타냅니다. 따라서 32 개의 가능한 값을 가지는 것이지요. 더 좋은 것은7 bits를 사용하여128개의 값을 가지게 해 줍니다. 여기에는 한계가 있지요. 옛날에 사용되던 메모리 칩은 아주 비쌌기 때문에 제조업자들이 최소한 적은 buts를 사용하려고 했었던 때가 있었더랬지요. 뭐 부수적인 이야기였습니다.

4. 그래서 무엇이 중요하냐면요

순수한 아날로그에서 디지털로 제어되는 아날로그 구조물을 만드는 것은 이처럼 많은 변수들을 거칩니다. 이런 비싼 control panels 에서 자유로워진 이후에 제조업자들은 신디사이저에 더 많은 기능들을 부가할 수 있었지요. 예를 들어 그림 6에서는 5개 단계를 제어할수 있는 3개 이상의 contour generators 를 보여줍니다.
그림 7에서는  Roland Alpha Juno series에서 제공된 contour generator입니다. 이것은 그림처럼4time(4단계)세팅, 3개 이상의 level을 제공합니다.

그림8 은 EX800에서 5단계의 contour 입니다. 이것은ADSR 이상의 기능을 가지는데, 그 이유는 Break Point 에서 두 개의 level설정이 가능하기 때문입니다. 그러나 여기에서 ‘L1’ parameter를 그냥 지나치게 되지요. 이것은 어택의 끝에서 최대값으로 이르게 되는 바로 그 지점인데요. 이것을 줄이기 위해서 사용된 것이 바로 그림 9입니다. 자. 맨 처음으로 돌아왔지요?
이 장황한 이야기를 하는 이유는 아주 단순한 결론 때문입니다.

Contour generator의 복잡한 구조를 만든다면 더 세부적인 소리의 구조물을 만들 수 있다는 것!
. Think about the type of sounds you want to generate, and choose your instrument carefully so that you can produce them ! (Gordon Reid).

Play It Again, Vladimir (via Computer)

By ANNE MIDGETTE

THE house lights dimmed at the BTI Center for the Performing Arts in Raleigh, N.C., one night last month, the stage lights came up on the grand piano, and in front of a rapt audience Alfred Cortot played Chopin’s Prelude in G (Op. 28, No. 3), as he had not for nearly 80 years.

Cortot is dead, of course. He was not present in physical form, nor was anyone else sitting at the keyboard of the Yamaha Disklavier Pro as the keys rose and fell. But this was his performance come back to life: his gentle touch, his luminosity, even his mistakes, like the light brush of an extra note at the periphery of the final chord.

So, at least, claimed Dr. John Q. Walker, the president of Zenph Studios in Raleigh, which sponsored the event and created the software that allowed Cortot to return. Dr. Walker is developing technology that enables him to break down the sounds of an old recording, digitize them and reproduce them on a Disklavier, an up-to-the-minute player piano that can record and replay performances by means of a CD in a slot above the keyboard. Sophisticated fiber optics control the instrument’s hammers.

Old recordings of great performers are often marred by scratches and surface noise, or by sound badly filtered through primitive microphones. Dr. Walker is offering the same music with the immediacy of live performance and the acoustical advantages of a contemporary piano. To demonstrate the contrast, Dr. Walker also let the audience at the BTI Center hear the original Cortot recording from 1926, which sounds as if sand had been poured on the old disc’s shellac.

“The farther you get from the recordings, the worse they sound,” Dr. Walker said by phone a few days before the concert. “The fundamental root of the problem is that I don’t want to hear a recording. I want to hear the young Horowitz, Schnabel, Fats Waller, Thelonious Monk on an in-tune piano.”

If the claims he is making for his new technology are accurate, he will soon be able to. His plan is to approach the major labels with his software and delve into their back catalogs, acting as a record producer to make old recordings new. Josef Hoffman without the scratches, Glenn Gould without the mumbling: brought back to life and performing on modern pianos, recorded with modern technology.

“People say this is like colorizing old photographs, but it’s not,” Dr. Walker said. “This process is like being able to set up the entire scene of that photograph again and shoot it with a new camera from any angle, forever.”

This is the new world of computer music. In its infancy, way back in the 1960’s, the goal was to use digital technology to create new sounds and new musical forms. Today scientists around the world are turning computers on human performance, seeking to quantify an element once thought to be intangible: the expressivity of a human artist.

The piano is a good place to start. It offers a relatively limited set of variables. With the violin, every aspect of sound production is subject to human vagaries: bow pressure, bow speed, the placement of the fingers. On the piano, it comes down to hammers hitting strings.

Developed by Wayne Stahnke, the first Disklaviers were made in the 1980’s by Bösendorfer, the renowned Viennese piano manufacturer. When that company stopped making them, Yamaha took up the baton, hiring Mr. Stahnke as a consultant. Mr. Stahnke’s best-known Disklavier project was a foretaste of Dr. Walker’s efforts: translations of piano rolls recorded by Sergei Rachmaninoff. The two resulting CD’s of “new” Rachmaninoff performances, both called “A Window in Time” and released in 1998 and 1999, are still available from Telarc. Some listeners find these revelatory. Some find them mechanical, even soulless. The reactions demonstrate a basic difficulty with mechanical reproduction of music: there is a subjective element involved in determining if it works. The final criterion for any such reproduction is the rather imprecise “Turing test” of artificial intelligence: that is, whether it can make the listener think he or she is hearing a person rather than a machine.

At the Austrian Research Institute for Artificial Intelligence, a group of leading researchers known as the Machine Learning, Data Mining and Intelligent Music Processing Group are trying to pinpoint just what it is that fools the ear. Led by Gerhard Widmer, they are looking at everything from improving the way computers “hear” music to isolating the elements of individual performance style, as well as creating graphs and animations to illustrate different pianists’ interpretations of the same passage of music.

In a 2003 paper, “In Search of the Horowitz Factor,” Dr. Widmer and his team described giving the computer 13 recordings of Mozart piano sonatas, played into a Bösendorfer Disklavier by the pianist Roland Batik, to see if they could use the computer to determine rules that described the pianist’s interpretive choices.

They did get some rules, though it turned out that many of them applied equally well to other performances of other music. But the machine generated its own performance of a Mozart sonata movement that it had not heard Mr. Batik play, but based on what it had learned of his style. With this, it took second prize in the International Computer Piano Performance Rendering Contest in Tokyo in 2002. With no stage fright.

“The first question was, can we hear Glenn Gould play again?” Dr. Walker said. “The next question: Cool, can we hear him play other stuff?” To this, Dr. Widmer might answer: We’re getting there.

But there’s still the thorny matter of how to get data from an audio recording into the computer. It’s a question not just of having the computer play back a CD, but of translating the music into a language the computer can understand.

A computer, by itself, can’t recognize the difference between a note of music and a cough. It can’t pick out a melody from a dense weave of counterpoint. It can’t tap its foot to follow a beat – not, at least, in classical music, where the tempos are constantly changing. The first problem Dr. Walker faced was how to get the computer to create a kind of score from the clusters of sounds in a recording.

“A recording is sound waves that were sampled by a microphone,” he said. “We feed those into the computer and try to discover what the notes are. The computer model is a three-dimensional thing: middle C struck in a certain way looks like a 3-D mountain range. We have a model that looks like math equations, and we try to fit to it: Yeah, this looks like it’s a note.”

Dr. Walker – a trained pianist with a degree in software engineering who sold his company a few years ago, creating the time and financial flexibility to work on this project – is coming up with his own answers. But the process is still extremely time-consuming. He is reluctant to say just how slow it is, but he has been working for more than three years, and his demo CD includes only a few tracks: the Cortot, Glenn Gould’s performance of the Aria and first variation of Bach’s “Goldberg” Variations, and part of a track by Art Tatum.

Even after he gets a model that works, Dr. Walker has to contend with the question of reproduction on a Disklavier: can it mimic human performance down to the last detail? Dr. Werner Goebl, a member of Dr. Widmer’s team in Vienna, addressed this as co-author of a paper called “Are Computer-Controlled Pianos a Reliable Tool in Music Performance Research? Recording and Reproduction Precision of a Yamaha Disklavier Grand Piano.” Precisely measuring the Disklavier’s ability to replicate human touch, Dr. Goebl answered his own question: No.

Less high-tech but just as relevant are the variations from one piano to another. A skilled musician compensates for changes in a room or an instrument. A CD cannot. Dr. Walker encountered one aspect of the problem when he took his technology to the Yamaha studios to play his Cortot performance for Mei-Ting Sun, a young concert pianist and the winner of the first Piano-e-Competition in 2002 (judged, in part, via a Disklavier in Japan, which reproduced performances thousands of miles away for one of the judges).

It had to do with the final chord in the Chopin prelude – or, rather, with the extra, wrong note.

“Their piano wasn’t calibrating as ours was,” Dr. Walker said, “and the note didn’t sound. Mei-Ting said: ‘I know this recording. This wasn’t accurate, because Cortot misses the last chord.’ I played it again, and he watched the keyboard and saw that the key went down but didn’t sound. He said, ‘O.K., you guys got it.’ “

Mr. Sun was so convinced that at the North Carolina concert where Dr. Walker’s version of Cortot made his debut, he appeared as the featured live artist: Cortot played a piece, Glenn Gould played a piece, and Mr. Sun played the rest of the evening. He had to; Dr. Walker didn’t have enough music to fill a whole recital.

The technology, in short, is still in its infancy. But Dr. Walker is animated by his vision of the future. Like other scientists – including Dr. Goebl in Vienna, another serious classical musician – he envisions a future of interactive recordings. “We’ve been trained that a recording is a frozen document,” he said. “Why can’t it be like a video game – every time you hear a recorded performance it’s different?” But at the moment, his focus is on making new recordings in a more conventional manner.

Dr. Goebl, in Vienna, supports Dr. Walker’s work and is interested in it. But he questions whether it’s a “real” performance. (Dr. Walker is well aware of such skepticism; his response is simply that you can’t judge until you’ve heard it.) “The timing you can probably get quite right,” Dr. Goebl said. “What is really difficult is to get how long the notes were held and how the pedal was moved and so on. You don’t have that information. You can just guess. The result is something that sounds like but never truly will be Gould. It’s always an approximation.”

So is he saying that Dr. Walker’s track isn’t authentic?

“There you have to go into the philosophical domain,” Dr. Goebl replied. “A recording is just an acoustic document of what took place.”

In other words, a recording isn’t authentic, either. It is also at a remove, or two or three, from the original performer, and it is also affected by the decisions of the engineers who helped create it.

The Gould recording, after all, wasn’t recorded in one take. Many different takes were spliced together to create it. Is it any more real than a computer replica? Only if you say it is.