SHIN STORYSHIN STORY
홈포스트C#TypeScriptNext.jsNode.js시리즈
</>SHIN STORY

sdf

탐색

  • 홈
  • 모든 포스트
  • 시리즈
  • 검색

카테고리

  • C#
  • TypeScript
  • Next.js
  • Node.js
  • 알고리즘
  • 개발 도구

© 2025 Shin Blog. All rights reserved.

GitHubRSS
목록으로
Node.js#Node.js#Performance

Node.js Stream으로 대용량 파일 처리하기

SHIN

2026년 4월 18일0
📚

Node.js 실전 팁 20선

20편
  1. Node.js Stream으로 대용량 파일 처리하기현재
  2. 4Worker Threads로 CPU 집약 작업 처리하기
  3. 5cluster 모듈로 멀티코어 CPU 100% 활용하기
  4. 6child_process로 외부 명령 실행하기
  5. 7fs/promises로 파일 시스템 다루기
  6. 20Node.js Event Loop 완전 정복
  7. 20Node.js path 모듈 완전 정복
  8. 20환경 변수 관리 — .env, dotenv, 그리고 검증
  9. 20EventEmitter 패턴으로 느슨한 결합 구현하기
  10. 20Node.js crypto 모듈로 해싱과 암호화 구현하기
  11. 20Node.js 메모리 누수 찾고 수정하기
  12. 20Express 미들웨어 패턴과 에러 처리
  13. 20Node.js CJS vs ESM 모듈 시스템 완전 정리
  14. 20Node.js Buffer와 인코딩 완전 가이드
  15. 20PM2로 Node.js 프로세스 관리하기
  16. 20Node.js HTTP 서버 직접 구현하기
  17. 20Node.js 성능 프로파일링 실전 가이드
  18. 20Node.js npm 스크립트 완전 활용하기
  19. 20Node.js 보안 체크리스트 10가지
  20. 20Node.js 테스팅 전략 — 단위, 통합, E2E 테스트

Node.js Stream으로 대용량 파일 처리하기

파일 전체를 메모리에 올리지 않고 청크(chunk) 단위로 처리하는 것이 Stream의 핵심입니다.

Stream 4가지 종류

종류설명예시
Readable읽기 스트림fs.createReadStream
Writable쓰기 스트림fs.createWriteStream
Duplex읽기+쓰기TCP 소켓
Transform변환zlib.createGzip

기본: 파이프로 파일 복사

CODE
const fs = require('fs');

// ❌ 메모리 폭발 위험
const content = fs.readFileSync('large.csv'); // 5GB 파일이면 RAM 5GB 사용
fs.writeFileSync('copy.csv', content);

// ✅ Stream 파이프 - 메모리 일정 유지
fs.createReadStream('large.csv')
  .pipe(fs.createWriteStream('copy.csv'))
  .on('finish', () => console.log('복사 완료'));

Gzip 압축 파이프라인

CODE
const fs = require('fs');
const zlib = require('zlib');
const { pipeline } = require('stream/promises');

async function compressFile(input, output) {
  await pipeline(
    fs.createReadStream(input),
    zlib.createGzip(),
    fs.createWriteStream(output)
  );
  console.log(`압축 완료: ${output}`);
}

compressFile('data.csv', 'data.csv.gz');

CSV 라인 단위 파싱

CODE
const fs = require('fs');
const readline = require('readline');

async function processCSV(filePath) {
  const rl = readline.createInterface({
    input: fs.createReadStream(filePath),
    crlfDelay: Infinity,
  });

  let lineCount = 0;
  for await (const line of rl) {
    const fields = line.split(',');
    // 각 줄 처리 (메모리에는 한 줄만 유지)
    lineCount++;
    if (lineCount % 100000 === 0) {
      console.log(`${lineCount}줄 처리 완료`);
    }
  }
  console.log(`총 ${lineCount}줄 처리`);
}

Transform Stream 직접 구현

CODE
const { Transform } = require('stream');

class UpperCaseTransform extends Transform {
  _transform(chunk, encoding, callback) {
    this.push(chunk.toString().toUpperCase());
    callback();
  }
}

fs.createReadStream('input.txt')
  .pipe(new UpperCaseTransform())
  .pipe(fs.createWriteStream('output.txt'));

백프레셔(Backpressure) 처리

CODE
const readable = fs.createReadStream('large.bin');
const writable = fs.createWriteStream('dest.bin');

readable.on('data', (chunk) => {
  const ok = writable.write(chunk);
  if (!ok) {
    // 쓰기 버퍼가 가득 참 → 읽기 일시 중단
    readable.pause();
    writable.once('drain', () => readable.resume());
  }
});

readable.on('end', () => writable.end());

pipeline() 을 사용하면 백프레셔와 에러 처리가 자동으로 됩니다. 직접 pipe()보다 항상 pipeline()을 선호하세요.

공유
S

SHIN

.NET 개발자입니다

GitHub
Node.js Event Loop 완전 정복

이전 포스트

Node.js Event Loop 완전 정복

다음 포스트

Worker Threads로 CPU 집약 작업 처리하기

같은 카테고리 포스트

Node.js 테스팅 전략 — 단위, 통합, E2E 테스트

Node.js 테스팅 전략 — 단위, 통합, E2E 테스트

2026년 5월 6일· 2분
Node.js 보안 체크리스트 10가지

Node.js 보안 체크리스트 10가지

2026년 5월 5일· 2분
Node.js npm 스크립트 완전 활용하기

Node.js npm 스크립트 완전 활용하기

2026년 5월 4일· 1분

댓글