전체 글 (142) 썸네일형 리스트형 [Logic Pro X][1] 환경설정 / 새창 열기 / software instrument start action 은 Do Nothing ! [1] 새창 열기 : shift + cammand + N [2] 열었을 때 나오는 창 [3] 설명 - software instrument : 가상악기 요새는 가상악기가 잘 되어있어서 대부분 이걸로 하면 된다. - Audio : 일반적으로 보컬 레코딩할 때 많이 사용한다. R 을 눌러 recording 할 수 있다. - Drummer : 로직을 구매하면 구매함과 동시에 드러머 들이 생기는 것과 마찬가지이다. 장르선택은 내가 하고 싶은것으로 하면 됨 - External MIDI : 외장 미디 인데 잘 사용하지 않습니다~ - Guitar or Bass : 기타나 베이스를 직접 recording 할 때 기타 같은 경우는 리얼한 음이 가상악기로는 어려운 부분이 있.. Joep Beving 윱 베빙 Nocturnal https://youtu.be/yxYEx7kN3dY 현대음악의 쇼팽 답게 제목도 Nocturnal https://youtu.be/sSxEg-HyFAE 그냥 시퀀서로 녹음한 작업물이 아닌 직접 피아노를 연주하여 녹음한 작업물. 그래서 그런지 페달소리, 건반을 타건하는 소리, 해머가 현을 두드리는 소리 모두 녹음 되어있는 음악이다. 그 작은 소음들로 인해 직접 앞에서 듣는 듯한 느낌을 받는데 그게 굉장한 편안함과 나른함으로 다가온다. https://youtu.be/9TbG7cbXYSA 윱베빙의 음악은 누군가의 잔잔하고 와인한잔 하며 책을 읽고있는 삶을 엿본듯한 느낌을 받는다 단순함 속에 녹아들어있는 예술적 감각 사실 듣기에 단순해 보일뿐 절대 단순하지 않다. [librosa] install : 가상환경 로컬 주피터 노트북에서 pip install librosa 를 실행하여 라이브로사를 설치합니다. # 관리자 권한으로 아나콘다 프롬프트 창 열고 (가상환경명 : snowdeer_env1) 설치시 활성화 시키고 conda activate snowdeer_env1 # 설치 pip install librosa 그리고 커널 리스타트하고 실행합니다. 만약 권한 오류나면 다음과 같이 설치합니다. pip install --user librosa [Tensorflow] Audio data preprocessing (오디오데이터 전처리) deeplearning 에서 audio 영역에서 널리 사용되는 기능은 mel-spectrogram 입니다. mel spectrogram 시간에 따른 신호의 주파수 스펙트럼을 시각적으로 표현 한 것 audio domain 에서 가장 인기있는 특징표현 (feature representation) 이다. 일반 spectrogram 은 frequecny domain 이 표현 되어있지만 , mel - spectrogram 은 mel scale (인간의 청각 민감도를 고려한) 으로 표현 되어있다. mel scale 은 로그 스케일 변환이 일어난다. ( 정식명칭 : log - mel spectrogram) log 는 scale , mel 은 requency domain 을 의미한다. 오디오 데이터를 5개의 간단한 s.. [Cornell University] Zero shot Audio Source Separation : 논문 분석 (1) 개요 Audio Sorces 분리는 AI 를 이용한 Audio processing 분야의 핵심 과제이다. 여러가지 악기가 녹음되어있는 하나의 audio 작품에서 하나 또는 그 이상의 각각의 악기 성분을 분리하는것 접근 방식 여러 사운드 유형의 소스분리를 위해 단일 모델 사용 훈련을 위해 레이블이 약한 데이터에만 의존 볼 수 없었던 유형의 오디오 소스를 분리하는 방법을 학습 성공적인 backbone 아키텍쳐 Wave-U-Net TasNet D3Net ⇒ 오디오 소스의 각 대상유형에 대한 전체 모델 매개 변수 세트를 교육해야한다. ⇒ 결과적으로 이러한 모델을 훈련하는데 많은 시간과 메모리가 필요하다. 문제점 범용 소스 분리로 알려져 있다. 즉, 가능한 한 많은 소스를 분리하기 위해 단일 모델만 필요하다는 것 문제.. [서울대 지능정보 세미나 - 이교구 교수] (4) NASY : Neural Analysis and Synthesis 신경망 기반 음성 분석 및 합성 보호되어 있는 글입니다. [yoga] 아쉬탕가 호흡 : 우자이 호흡 요가는 정화와 정렬의 작업인데 이것은 호흡에서부터 시작이다. 아무동작을 하지 않아도 호흡을 제대로 하면 열을 낼 수 있다. 우자이호흡, 우짜이호흡이라고도 한다. 코로 들이 마쉰다. 들이마쉴때에 가슴(흉곽)이 크게 부풀어오른다. 콧구멍을 아주 크게 벌려 숨을 크게 들이 마쉰다. 이 호흡을 할 때에는 소리가 크게 내는 이유는 인후두 라고 불리는 (숨이 지나가는 부분) 부위에 소용돌이를 내며 지내야하는데 그러러면 인위적으로 소시를 내며 호흡을 해야하기 때문이다. 참고로 복식 호흡과는 다르게 해야하는것인데 (복식 호흡은 횡경막을 움직여서 숨을 쉬는것) 흉식은 호흡의 해당되는 근육을 전부 사용하여 숨을 쉬는것이다. (늑간=갈비살) 까지 사용하여 폐를 부풀렸다가 쥐어짰다가 하며 호흡을 하게 되는것이다. 흉식호흡을 .. [서울대 지능정보 세미나 - 이교구 교수] (3) SVS (Singing Voice Synthesis) : 가창 합성 : 김광석 & 터틀맨 제작 과정 해당 세미나를 듣고 내용을 요약하고 링크나 다른 내용을 좀더 추가했습니다. 혹시라도 저작권 문제로인해 삭제 해야한다면 nhj1124@icloud.com 메일로 알려주세요 https://youtu.be/BiDXrqWUt0w 지금 작성하는 기술들은 supertone 기업의 기술설명임을 밝힙니다. Singing Voice : 가창 사람의 목소리로 음악을 표현하는 방식이고, 멜로디를 담고 그로부터 표현력을 극대화 하는 요소입니다. 여기서 멜로디와 음정은 악보를 통해서 얻어 낼 수 있습니다. 이러한 SVS (Singing Voice Synthesis) 가창합성은 주어진 악보 빛 가사정보로부터 자연스러운 가창음성을 생성해내는 작업(Task) 입니다. 앞서 게시했던 TTS system 과는 유사하다고 할 수 있지만 .. 이전 1 2 3 4 5 ··· 18 다음