docs: add detailed README.md with project documentation

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
yakenator
2026-02-24 04:47:07 +09:00
parent 90748b2d3b
commit f1f19d48fc

98
README.md Normal file
View File

@ -0,0 +1,98 @@
# stock-news-crawler
한국 주식 분석 플랫폼의 **뉴스 크롤링 서비스**. 네이버 금융에서 종목별 뉴스를 수집하여 Redis Streams에 발행합니다.
## 기능
- **네이버 금융 뉴스 크롤링**: 종목별 관련 뉴스 기사 수집 (제목, 출처, 날짜, URL)
- **중복 제거**: URL 기반 중복 기사 자동 필터링
- **페이지네이션**: 종목당 최대 N 페이지까지 크롤링
- **User-Agent 로테이션**: 차단 방지를 위한 UA 순환
- **Rate Limiting**: 초당 1건으로 요청 속도 제어
- **비동기 워커**: Redis Streams 기반 작업 큐 소비
## API 엔드포인트
| 메서드 | 경로 | 설명 |
|--------|------|------|
| GET | `/health` | 서비스 상태 |
| GET | `/streams` | Redis Stream 큐 길이 |
| POST | `/collect/news` | 뉴스 수집 트리거 |
### 요청 예시
```bash
# 뉴스 수집 (삼성전자 + SK하이닉스, 3페이지)
curl -X POST http://localhost:8003/collect/news \
-H "Content-Type: application/json" \
-d '{"stock_codes": ["005930", "000660"], "max_pages": 3}'
```
### 응답
```json
{"status": "queued", "message_id": "1700000000000-0", "stock_codes": ["005930", "000660"]}
```
## 데이터 파이프라인
```
POST /collect/news
queue:trigger-news ──→ Worker (NewsCollector)
queue:raw-news
(downstream services)
```
## 크롤링 대상
| 소스 | URL 패턴 | 데이터 |
|------|---------|--------|
| 네이버 금융 | `finance.naver.com/item/news.naver?code={code}` | 종목 관련 뉴스 기사 |
수집 데이터 필드:
- `title` - 기사 제목
- `url` - 기사 링크
- `source` - 출처 (언론사명)
- `published_at` - 발행 시각
- `stock_codes` - 관련 종목 코드
- `sentiment` - 감성 (기본 NEUTRAL, 추후 분석 가능)
## 프로젝트 구조
```
stock-news-crawler/
├── pyproject.toml
├── Dockerfile
├── .dockerignore
└── src/stock_news_crawler/
├── __init__.py
├── api.py # FastAPI 엔드포인트
├── crawler.py # NewsCollector (네이버 금융 크롤러)
└── worker.py # Redis Stream 소비자 + API 서버 실행
```
## 환경변수
| 변수 | 설명 | 기본값 |
|------|------|--------|
| `REDIS_URL` | Redis 연결 URL | `redis://localhost:6379/0` |
| `LOG_LEVEL` | 로그 레벨 | `INFO` |
## 로컬 실행
```bash
pip install -e ../stock-common && pip install -e .
python -m stock_news_crawler.worker
```
## 의존성
- `stock-common` - 공유 라이브러리
- `beautifulsoup4` + `lxml` - HTML 파싱 (stock-common에 포함된 aiohttp로 HTTP 요청)
- Python >= 3.12