“AI 직무는 멋있는데… 뭘 먼저 공부해야 하지?” 그 질문 하나로 시간(과 돈) 새는 거, 오늘로 끝내봐요.
안녕하세요! 저는 요즘 커리어 상담을 하다 보면 ‘AI 관련 직업’ 이야기만 나오면 다들 눈빛이 반짝이더라구요. 근데 신기하게도 다음 문장은 거의 똑같아요. “그래서… 파이썬부터요? 수학부터요?” 저도 예전에 새벽 1시에 강의 목록만 20개 탭 띄워두고, 결국 아무것도 못 고른 날이 있었거든요(진짜로요). 오늘은 그 삽질을 줄이기 위해, AI 직무에 유리한 기본 스킬 10개를 딱 잡아주고, 공부 순서까지 현실적으로 정리해볼게요.
목차
AI 직무 지도: “내가 어디로 가는지” 먼저 잡기
AI 관련 직업은 한 단어로 뭉뚱그리기엔 갈래가 꽤 많아요. 예를 들어 데이터 분석/사이언티스트는 “인사이트를 뽑아 설득”하는 능력이 강점이 되고, 머신러닝 엔지니어는 “모델을 만들고 서비스에 붙이는” 실행력이 중요해요. 또 MLOps/플랫폼는 운영·배포·모니터링 같은 안정성에 무게가 실리고, AI 프로덕트(기획/PM)은 비즈니스 문제를 AI로 풀 수 있게 설계하는 역량이 핵심이죠.
그래서 공부 순서도 “AI 공부 = 수학부터”처럼 고정하면 오히려 멀어질 수 있어요. 먼저 ① 데이터를 만질 줄 아는가, ② 모델 성능을 해석할 줄 아는가, ③ 결과를 실제 제품/업무에 연결할 줄 아는가 이 세 축으로 자신이 가고 싶은 방향을 체크해보면, 이후에 소개할 기본 스킬 10개가 왜 필요한지(그리고 어떤 순서가 빠른지) 감이 확 와요.
한 줄 기준: “내가 분석으로 설득을 잘하고 싶은지, 모델 개발을 잘하고 싶은지, 서비스 운영까지 책임지고 싶은지”를 먼저 결정하면 공부가 훨씬 덜 헤매요.
기본기 1~3: 코딩·데이터·문제해결 감각
AI 직무에서 “기본 스킬”이라고 하면 거창한 논문 구현보다도, 현업 데이터를 내 손으로 다루고 작동하는 코드를 안정적으로 만드는 능력이 먼저예요. 여기서 시간을 아끼는 포인트는 단순 암기보다 작은 미니 프로젝트를 반복하는 것! 예를 들어 “CSV → 정리 → 시각화 → 간단한 예측” 같은 흐름을 여러 번 돌리면, 실력이 눈에 보이게 쌓이더라구요.
| 스킬(1~3) | 왜 중요해요? | 추천 연습(짧고 굵게) | 공부 순서 |
|---|---|---|---|
| 1) Python 기본 문법 + 함수/클래스 + 라이브러리 |
AI 업무는 결국 “코드로 문제를 푸는 일”이라, 파이썬이 손에 안 붙으면 다른 공부도 계속 막혀요. | 리스트/딕셔너리로 데이터 변환, 파일 입출력, 예외 처리로 “안 죽는 코드” 만들기 | 1순위 |
| 2) 데이터 핸들링 NumPy/Pandas + 시각화 |
모델보다 먼저 필요한 건 “데이터가 어떤 상태인지”를 읽는 눈이에요. 결측치/이상치 처리만 잘해도 결과가 달라져요. | 결측치 채우기/제거, 그룹별 통계, 히스토그램·박스플롯으로 분포 확인하기 | 2순위 |
| 3) SQL 기초 SELECT/WHERE/JOIN/GROUP BY |
현업 데이터는 DB에 있는 경우가 많아서, SQL을 못 하면 “데이터를 못 꺼내는 사람”이 되기 쉬워요. | 조인 2~3개 테이블 묶기, 월별/유저별 집계 쿼리 만들기, 서브쿼리로 필터링 연습 | 3순위 |
이 1~3이 갖춰지면, 갑자기 “AI 공부가 재밌어지는 순간”이 와요. 모델이든 통계든 결국 입력은 데이터고, 손은 코드로 움직이니까요. 특히 SQL까지 붙이면 실무형 포트폴리오에서 강력한 신뢰 포인트가 됩니다.
기본기 4~6: 머신러닝·통계·평가(성능) 이해
다음 단계에서 흔히 무너지는 지점이 “수식 공포”예요. 근데 진짜 필요한 건 ‘증명’보다 직관이에요. 예를 들어 평균/분산이 뭘 의미하는지, 과적합이 왜 생기는지, 정확도 말고도 F1이나 AUC를 왜 쓰는지 같은 감각이죠. 이 감각이 있으면 모델을 바꾸거나 피처를 고칠 때 “감으로 찍는” 시간이 확 줄어듭니다.
- 4) 확률·통계 기초: 표본/모수, 평균·분산·표준편차, 정규분포, 신뢰구간, p-value를 “공식 암기”가 아니라 “그래프 해석”으로 익혀요. (추천 연습: 작은 샘플로 평균이 얼마나 흔들리는지 시뮬레이션)
- 5) 머신러닝 핵심(지도/비지도): 선형회귀·로지스틱회귀·트리/랜덤포레스트·부스팅 같은 대표 알고리즘의 “장단점/언제 쓰는지”를 잡아요. (추천 연습: 같은 데이터로 모델 3개 돌리고 성능/해석 비교)
- 6) 평가 지표·검증 방법: Train/Valid/Test 분리, 교차검증, 과적합 체크, 분류/회귀 지표(Accuracy, F1, AUC, RMSE 등)를 상황에 맞게 고르는 연습을 해요. (추천 연습: 데이터 불균형일 때 Accuracy가 왜 함정인지 직접 확인)
여기까지 오면 “모델을 만드는 사람”의 언어가 생겨요. 중요한 건 완벽한 수학이 아니라, 내가 만든 결과를 설명하고 재현할 수 있는 수준의 이해예요. 다음 단계에서는 이 기본기를 실제 업무처럼 굴리는(배포·클라우드·협업) 스킬로 확장해볼게요.
기본기 7~10: 딥러닝·배포·클라우드·협업
1~6이 “AI를 이해하고 만들 수 있는 체력”이라면, 7~10은 “현업에서 굴러가게 만드는 기술”이에요. 여기서부터는 공부 감성이 바뀝니다. 이론 책을 펴는 시간보다, 실행→실패→로그 확인→수정 루프가 더 중요해져요. 이상하게도 이 구간을 넘으면 면접에서 말할 소재가 급격히 늘어나더라구요.
7) 딥러닝 프레임워크(주로 PyTorch): CNN/RNN/Transformer를 “완벽히” 알 필요는 없지만, 텐서 연산·학습 루프·손실함수·옵티마이저가 어떤 역할인지 몸으로 익혀야 해요. (연습: 간단한 이미지/텍스트 분류 모델을 학습시키고 과적합을 줄이는 실험)
8) 모델 서빙/API(FastAPI 등): “노트북에서만 돌아가는 모델”은 반쪽짜리예요. 입력/출력 스키마를 정하고, 예측 API를 만들고, 에러 처리를 넣는 순간부터 실무 감각이 확 올라갑니다. (연습: /predict 엔드포인트 만들고, 요청값 검증과 응답 형태를 고정)
9) 배포/환경(Docker + 기본 Linux): “내 컴퓨터에서는 됐는데요?”를 끝내는 스킬이에요. Docker로 환경을 고정하고, 리눅스에서 실행 로그를 보며 문제를 잡을 수 있으면, 팀에서는 당신을 바로 붙여 쓰는 사람으로 봅니다. (연습: Dockerfile 작성 → 컨테이너 실행 → 환경변수로 설정 분리)
10) 협업/버전관리(Git + 재현 가능한 기록): AI는 실험이 많아서 “내가 뭘 바꿨더라?”가 자주 터져요. Git 브랜치 전략까지는 아니어도, 커밋 메시지·README·실험 결과 정리(간단한 로그/노트)만 잘해도 실무 신뢰도가 확 올라가요. (연습: 기능 단위 커밋 + 재현 방법(설치/실행) 10줄로 정리)
포인트는 “전부 깊게”가 아니라 “끝까지 한 번”이에요. 딥러닝을 살짝 맛보고, API로 묶고, Docker로 고정하고, Git으로 기록하면 그 자체가 이미 프로젝트형 포트폴리오가 됩니다.
공부 순서 추천: 4주·8주·12주 로드맵
“완벽하게 다 하고 취업”은 현실적으로 어렵고, 오히려 지치기 쉬워요. 그래서 저는 기간을 나눠서 목표를 딱 정하는 걸 추천해요. 핵심은 매 구간마다 결과물 1개를 만들고, 그 결과물이 다음 공부의 발판이 되게 하는 흐름입니다.
| 기간 | 집중 스킬(우선순위) | 주간 루틴(현실 버전) | 결과물(필수) |
|---|---|---|---|
| 4주 입문 → 실전 감각 |
Python(1) → Pandas/시각화(2) → SQL 기초(3) + 간단한 평가 지표(6) 맛보기 |
주 4일: 60~90분 코딩/데이터 실습 주 1일: “한 주에 배운 것”으로 미니 과제 1개 주말: 정리 글(짧게라도) |
미니 EDA 리포트(결측/분포/인사이트 3개) + SQL로 만든 집계 쿼리 5개 |
| 8주 ML 핵심 완주 |
통계(4) → ML 알고리즘(5) → 검증/지표(6) + 데이터 전처리 고도화(2) |
주 3일: 알고리즘 1개씩 “왜/언제/한계” 정리 주 2일: 동일 데이터로 모델 2~3개 비교 실험 매주: 실험 결과 표/그래프 남기기 |
ML 프로젝트 1개(분류 or 회귀) + 교차검증/지표 선택 이유까지 문서화 |
| 12주 배포까지 연결 |
딥러닝(7) → API 서빙(8) → Docker/Linux(9) → Git/협업(10) + (선택) 클라우드에 올려보기 |
주 2일: 모델/학습 파이프라인 개선(로그 기반) 주 2일: API/배포 작업(에러 처리, 속도 개선) 주 1일: README/문서/데모 정리 |
서비스형 포트폴리오 1개 (예측 API + Docker + 실행 방법 문서 + 데모 영상/스크린샷) |
로드맵은 “정답”이 아니라 “방향표”예요. 하지만 이 표대로만 해도, 최소한 중간에 길을 잃는 확률은 확 줄어들어요. 특히 12주 플랜에서 배포까지 해본 경험은, AI 직무 지원할 때 정말 강력한 차별점이 됩니다.
포트폴리오 전략: “스킬 10개”를 증명하는 방법
포트폴리오는 화려함보다 “증거”가 중요해요. 면접관 입장에서 보고 싶은 건 딱 3가지예요. ① 재현 가능한가, ② 왜 그렇게 했는가, ③ 문제가 생겼을 때 어떻게 고쳤는가. 그래서 아래 체크리스트처럼 구성하면, 같은 프로젝트라도 완성도가 훨씬 높아 보입니다.
- README는 ‘면접 대본’으로 쓰기: 목적(문제 정의) → 데이터 설명 → 전처리 → 모델 선택 이유 → 평가 지표 → 한계/다음 실험 순서로 1페이지 구성. 읽는 사람이 “아, 이 사람은 생각하면서 했구나”를 느끼게 해요.
- 실험 기록 5줄이라도 남기기: 날짜/변경점/결과/해석/다음 액션. 이 간단한 로그가 스킬(4~6, 10)을 가장 확실하게 증명해줘요.
- 데이터 파이프라인을 “보이게” 만들기: SQL로 어떤 테이블/조건으로 뽑았는지, Pandas로 어떤 전처리를 했는지(결측/인코딩/스케일링)를 코드와 함께 정리하면 스킬(2~3)이 자동으로 드러나요.
- ‘서비스형’ 데모 1개는 무조건: FastAPI로 /predict 만들고 Docker로 실행되게 하면, 스킬(8~9)을 한 번에 보여줄 수 있어요. 화면 녹화 30초짜리 데모 영상/스크린샷까지 있으면 설득력이 확 올라갑니다.
- 프로젝트 주제는 ‘내가 설명 가능한 도메인’으로: 예) 소비/리뷰/운동/학습 기록처럼 내가 맥락을 아는 데이터가 좋아요. 그래야 피처를 만들 때 “논리”가 생기고, 결과 해석도 더 자연스러워요. 이게 결국 스킬(5~6)의 깊이를 만들어줍니다.
추천 조합(현실적으로 강함): “ML 예측 + 간단한 딥러닝 실험 + API 서빙 + Docker + README/실험로그”까지 한 번만 묶어도, 스킬 10개가 ‘공부했다’가 아니라 ‘해봤다’로 바뀝니다.
FAQ: 자주 묻는 질문 6가지
1 AI 직무 하려면 수학을 얼마나 해야 하나요?
2 파이썬만 하면 되나요? 다른 언어도 필요해요?
3 포트폴리오는 몇 개가 적당해요?
4 딥러닝은 언제부터 시작하는 게 좋아요?
5 비전공자도 AI 직무에 지원할 수 있을까요?
6 자격증이나 수료증이 도움이 되나요?
마무리: “뭘 공부하느냐”보다 “어떤 순서로 끝까지 하느냐”
AI 직무 준비는 생각보다 “많이 아는 사람” 게임이 아니라, 기본기를 묶어서 끝까지 해본 사람 게임에 가까워요. 파이썬·데이터·SQL로 손을 먼저 움직이고(1~3), 통계·ML·평가로 결과를 설명할 언어를 만들고(4~6), 마지막엔 딥러닝/서빙/배포/협업으로 “현업에서 돌아가게”까지 연결(7~10)하면, 그 자체로 이미 강력한 스토리가 됩니다. 저도 예전에 강의만 늘려놓고 조급해하던 시기가 있었는데, 이상하게도 딱 하나의 프로젝트를 배포까지 해보는 순간부터 자신감이 확 올라가더라구요. 오늘 글을 보고 “나도 뭐부터 해야 할지 좀 보이는데?”라는 느낌이 들었다면, 그게 이미 큰 진전이에요. 지금 기준에서 가장 쉬운 데이터로, 가장 작은 프로젝트부터 시작해보세요. 그리고 진행하면서 막히는 지점(예: SQL 조인이 헷갈린다, 지표 선택이 어렵다, Docker가 무섭다)이 생기면 그게 바로 다음 공부의 정확한 타겟입니다. 여러분은 10개 스킬을 다 ‘완벽히’ 할 필요 없어요. 한 번이라도 끝까지 연결하면, 그 다음은 훨씬 빨라집니다.
워시톡 매거진에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.
