Page History
...
| Code Block | ||
|---|---|---|
| ||
brew install ollama # 로컬 LLM 엔진 brew install claude # Claude Code CLI brew install python # 파이썬 환경 |
- 예시이며 실제 이러한 컨셉으로 설치가 한방 마무리가 되며 복잡한 개발환경을 온보딩하는데 평균 소요시간 극단적인 예이긴하지만 brew로 정리된 개발환경이 아무리 복잡해도 딸각구성이 되며 윈도우는 아마 wsl 종속이 있다고하면 이거 설치하느데만 이미 하루이상 날려먹었던 경험이 있을것이다. 그리고 설치하고나서도 초반구성 잘못해 수차례 처음부터 도르마무회기.... 이 세계의 개발자는 아마 어느새 WSL전문가가 이미 되었을것이다. - 아파치 웹서버 종속이 있는 WAS(PHP등)를 요구하는 레거시를 재현하고자할때 특히나 더 헬이 된다.
- 윈도우 : 1주일
- 맥 : 하루
Homebrew 한 줄이면 끝이다. 리눅스와의 호환성도 뛰어나서, macOS에서 만든 스크립트가 서버에서도 그대로 돌아간다. Ollama 위에 Llama 3.1 70B를 올리면 M4 Pro 64GB에서 초당 10~15 토큰으로 로컬 AI 비서가 완성된다. Apple의 MLX 프레임워크는 Metal GPU 가속까지 네이티브로 지원한다.
...
그리고 이것만이 아니다. AI CLI 도구로 파일 분석, Python 스크립트, Node.js 스크립트를 실행하다 보면, 일관적이지 않은 윈도우의 터미널 환경 때문에 Claude Code가 적어도 2번 이상은 실패한다. WSL 안이라고 알려주면 CMD 명령을 돌리고, 윈도우 터미널이라고 하면 Linux Bash 문법에서 막히고. 맥이라면 어디서든 동일한 Unix 셸이 돌아가지만, 윈도우에서는 “지금 내가 WSL 안에 있는지, 네이티브 PowerShell인지, CMD인지”를 AI가 매번 헷갈린다.
| Warning |
|---|
윈도우 개발자의 현실 — CLI 멀티버스 단지 AI CLI 도구가 현재 터미널 환경을 제대로 인식하지 못한다는 이유만으로, WSL과 윈도우 네이티브 터미널 사이를 수시로 전환해야 하는 경우가 상당하다. 그뿐만이 아니다. 개행 문자가 다르다(LF vs CRLF). 파일명 대소문자 규칙이 다르다 — Linux는 Anthropic은 왜 이런 환경 차이를 고려해서 도구 스크립트를 작성해주지 않는가? 결과적으로 동일한 프로젝트에서 어느 날은 CMD로, 어느 날은 WSL로, 또 어떤 날은 PowerShell로 들어갈 수밖에 없는 상황이 생긴다. 게다가 PowerShell 5.1은 지원 중단 수순에 들어갔으니 PowerShell 7을 사용해야 하는데, 이 둘은 프로파일 경로부터 다르다 — 5.1은 |
...
