Type4Me란?
Type4Me는 macOS 음성 입력 도구로, 실시간 음성-텍스트 인식과 선택적 LLM 기반 텍스트 처리를 제공합니다. 로컬(오프라인) 및 클라우드 인식 엔진을 모두 지원하며, 자격 증명과 인식 기록을 로컬에 저장하도록 설계되었습니다.
주요 목적은 사용자가 말한 중국어(사용 가능한 로컬 모델로 중국어-영어 이중언어 지원)를 텍스트로 변환하는 데 있으며, 로컬 인식 시 온디바이스 추론으로 더 빠른 속도를 제공하고, 클라우드 모델 사용 시 구성 가능한 프롬프트 기반 워크플로를 가능하게 합니다.
주요 기능
- 로컬 음성 인식 (오프라인): SherpaOnnx 엔진(Paraformer/Zipformer)을 사용해 API 키, 클라우드 계정 설정, 네트워크 없이 온디바이스 인식.
- 클라우드 스트리밍 인식: Volcengine (豆包) 스트리밍 ASR에 연결해 말하는 동안 텍스트 생성. 듀얼 채널 인식 후 전체 녹음으로 최적화하는 성능 모드 지원.
- 다양한 처리 모드 (커스텀 프롬프트 포함): 빠른 실시간 타이핑, 성능 중심 듀얼 채널 흐름, 영어 번역, 프롬프트 최적화, 선택 텍스트 및 클립보드에 LLM이 작동하는 명령 모드 등 내장 모드 제공. 사용자 커스텀 프롬프트 작성 가능.
- 프롬프트 컨텍스트 변수: 프롬프트 템플릿에서 {text} (인식 음성), {selected} (녹음 시작 시 선택 텍스트), {clipboard} (녹음 시작 시 클립보드 내용) 등의 변수 지원으로 “음성 명령” 워크플로 가능.
- 로컬 데이터 저장: 자격 증명은
~/Library/Application Support/Type4Me/credentials.json(권한 0600)에 로컬 저장, 인식 기록은 로컬 SQLite DB에 저장, 날짜 범위별 CSV 내보내기 지원. - ASR 어휘 관리: 고유명사 등의 핫워드 추가로 인식 정확도 향상, 이메일 레이블 말하면 실제 주소로 치환하는 구문 교체 지원.
Type4Me 사용 방법
- macOS 14+ 설치: Type4Me v1.2.0 DMG 다운로드 후 Type4Me.app을 Applications로 드래그. 최초 실행 시 App Store 외 앱 보안 경고 발생 가능; 시스템 설정 또는 터미널
xattr로 해결. - 인식 엔진 선택:
- 클라우드 전용 설치: DMG 흐름으로 클라우드 인식 엔진 지원.
- 로컬 오프라인 인식 (선택): 소스 빌드 시 로컬 Paraformer 엔진 활성화 및
~/Library/Application Support/Type4Me/Models/에 ASR 모델 파일 다운로드.
- 클라우드 사용 시 엔진 및 키 설정: 최초 실행 마법사에서 repo 지침 따라 Volcengine App Key, Access Key, Resource ID 입력.
- 모드 및 단축키 설정: 설정에서 로컬/Paraformer 또는 클라우드 엔진 선택 후 내장 모드 또는 커스텀 프롬프트 사용. 각 모드별 글로벌 단축키 바인딩, “누르고 말하기” 또는 “한 번 눌러 시작/중지” 지원.
사용 사례
- 네트워크 불안정 환경 오프라인 받아쓰기: API 키 없이 온디바이스에서 음성 전사하는 로컬 Paraformer (SherpaOnnx) 엔진 사용.
- 최소 지연 실시간 타이핑: Quick 모드로 인식 결과 즉시 삽입.
- 이중언어 출력 워크플로: 이중언어 로컬 모델로 중국어 음성 입력 후 English Translation 모드로 영어 번역 출력.
- 현재 보는 내용에 작동하는 음성 명령: 에디터에서 텍스트 선택 후 단축키 누르고 명령 말하기(예: “선택 텍스트 번역”), 프롬프트에
{selected}및{clipboard}컨텍스트 전달. - 도메인별 어휘로 정확도 향상: 조직명, 제품명, 기술 용어 등을 ASR 핫워드로 추가하고, 이메일 주소 등 반복 민감 형식에 구문 교체 사용.
자주 묻는 질문
-
macOS에서 처음 실행 시 경고가 표시되는 이유는? macOS는 App Store에서 온 앱이 아닌 경우 보안 경고를 표시합니다. 리포지토리에서 열기를 허용하는 두 가지 방법을 제공합니다 (시스템 설정 권장, 또는 터미널
xattr -d com.apple.quarantine). -
로컬 인식을 위해 API 키가 필요하나요? 아니요. 로컬 SherpaOnnx 기반 엔진을 사용할 때 인식은 기기에서 실행되며 API 키나 클라우드 계정이 필요 없습니다.
-
내 자격 증명과 인식 기록은 어디에 저장되나요? 자격 증명은
~/Library/Application Support/Type4Me/credentials.json에 0600 권한으로 로컬에 저장됩니다. 인식 기록은 로컬 SQLite 데이터베이스에 저장되며 날짜 범위로 CSV 내보내기가 가능합니다. -
인식된 텍스트 처리 방식을 사용자 지정할 수 있나요? 네. Type4Me에는 내장 모드가 있으며 사용자 지정 프롬프트 템플릿을 지원합니다. 프롬프트 변수에는
{text},{selected},{clipboard}이 포함됩니다. -
미리 빌드된 DMG에서 로컬 인식이 가능한가요? 리포지토리에서 DMG 다운로드 흐름은 클라우드 인식 엔진을 지원한다고 명시합니다. 로컬 오프라인 인식은 소스에서 빌드하고 관련 SherpaOnnx 모델 파일을 다운로드해야 합니다.
대안
- macOS 내장 Dictation: 음성-텍스트 변환을 위한 편리한 네이티브 옵션으로, 프롬프트 기반 LLM 처리 통합과 오프라인 엔진 선택이 제한적입니다.
- 로컬/오프라인 음성-텍스트 도구 (ASR 앱 또는 CLI): Type4Me의 로컬 모드처럼 네트워크 없이 실행 가능하지만, 동일한 프롬프트 기반 모드와 단축키/클립보드 컨텍스트 워크플로를 제공하지 않을 수 있습니다.
- API를 가진 클라우드 전사 플랫폼: 클라우드 모델의 관리된 정확성을 원할 때 유용하지만, 네트워크 액세스가 필요하고 Type4Me의 로컬 우선 기능과 달리 계정/API 키 관리가 일반적입니다.
- 브라우저/데스크톱 음성 입력 제품: 앱 내 직접 독재에 초점; Type4Me의 차별화된 워크플로우는 인식과 구성 가능한 프롬프트 모드, 인식 기록의 로컬 저장/내보내기를 결합합니다.
대안
Tactiq
Tactiq는 Google Meet, Zoom 및 Teams를 위한 실시간 전사, AI 요약, 작업 항목 및 맞춤형 AI 프롬프트를 제공하는 AI 회의 도우미입니다.
Tavus
Tavus는 실시간 대면 상호작용을 위해 보고 듣고 반응하는 AI를 구축합니다. 맞춤 비디오 에이전트·디지털 트윈·AI 컴패니언을 API로 배포하세요.
AakarDev AI
AakarDev AI는 원활한 벡터 데이터베이스 통합을 통해 AI 애플리케이션 개발을 간소화하는 강력한 플랫폼으로, 신속한 배포와 확장성을 가능하게 합니다.
Sanota
Sanota로 목소리를 선명하고 아름다운 글로 바꿔 기억과 아이디어를 쉽게 기록하고, 빈 페이지 없이 시작하세요. 무료로 시작
BookAI.chat
BookAI는 제목과 저자를 제공하기만 하면 AI를 사용하여 책과 대화할 수 있게 해줍니다.
skills-janitor
skills-janitor로 Claude Code 기술을 감사하고 사용량을 추적하며, 9가지 슬래시 커맨드로 자신의 능력을 비교하세요. 의존성 0.