포스팅 단축 주소: https://hoyafinancial.com/1z2w
AI 모델을 컴퓨터에서 로컬로 실행하기 위한 인기 앱인 Ollama가 Apple의 자체 기계 학습 프레임워크인 MLX를 활용하는 업데이트를 출시했습니다. 그 결과 Apple 실리콘을 탑재한 Mac의 속도가 크게 향상되었습니다.
Ollama에 따르면 새 버전 프로세스는 프롬프트가 약 1.6배 더 빨라지고(사전 채우기 속도) 응답을 생성하는 속도(디코딩 속도)가 거의 두 배 빨라졌습니다. M5 시리즈 칩이 탑재된 Mac은 Apple의 새로운 GPU 신경 가속기 덕분에 가장 큰 개선이 이루어졌다고 합니다.
또한 이 업데이트에는 더 스마트한 메모리 관리가 포함되어 있어 AI 기반 코딩 도구와 채팅 도우미가 장시간 사용 중에 눈에 띄게 더 반응성이 뛰어난 것처럼 느껴질 것입니다.
Ollama는 새로운 성능 향상이 특히 OpenClaw와 같은 개인 비서나 Claude Code, OpenCode 또는 Codex와 같은 코딩 에이전트를 실행하는 macOS 사용자에게 도움이 될 것이라고 말했습니다.
미리보기 릴리스는 Ollama 0.19로 다운로드할 수 있습니다. 이를 실행하려면 32GB 이상의 통합 메모리가 있는 Mac이 있어야 합니다. 지원은 현재 Alibaba의 Qwen3.5로 제한되어 있지만 Ollama는 더 많은 AI 모델에 대한 지원이 계획되어 있다고 말했습니다.
포스팅 단축 주소: https://hoyafinancial.com/1z2w
