디스크 하위 시스템의 성능 - 간단한 교육 프로그램. 디스크 하위 시스템

소프트웨어의 급속한 발전으로 인해 컴퓨터 디스크 하위 시스템에 대한 요구 사항이 계속 증가했습니다. 작동 속도와 저장된 정보의 양 외에도 제조업체는 드라이브의 신뢰성 및 소비자 특성(예: 설치 용이성 및 소음 수준)과 같은 매개변수를 개선하는 데 주력했습니다. 휴대용 컴퓨터의 인기가 높아짐에 따라 엔지니어링 사고의 흐름이 드라이브의 소형화 및 극한 조건에서의 신뢰성 증가 영역으로 향하게 되었습니다. 언급된 모든 요구 사항을 동시에 충족하는 솔루션을 개발하는 것이 이론적으로 가능합니다. 그러나 "이상적인" 하드 드라이브가 "불완전한" 하드 드라이브보다 몇 배나 더 비쌉니다. 이러한 이유로 우리는 현재 서로 다른 기술을 사용하여 만들어지고 서로 다른 인터페이스를 통해 연결되고 서로 다른 기술적 특성을 가진 다양한 진정한 다양한 하드 드라이브를 보고 있습니다. 이 문서에서는 하드 드라이브 선택에 대한 간략한 조언을 제공하고 RAID 어레이를 구현할 때 사용자와 시스템 관리자가 실제로 직면하는 현재 문제에 대해서도 설명합니다.

최신 하드 드라이브에 대한 몇 가지 요구 사항

하드 드라이브(하드 드라이브)는 정보를 저장하는 가장 널리 알려진 수단으로 간주됩니다. 이 드라이브의 정보는 RAM과 달리 컴퓨터의 전원이 꺼져도 사라지지 않으며, 메가바이트의 정보를 저장하는 비용도 극히 적습니다(약 0.6센트). 최신 하드 드라이브는 디스크 메모리 메가바이트당 저렴한 비용으로 고성능과 인상적인 용량을 제공합니다. 최신 하드 드라이브는 47GB 이상일 수 있습니다. 그러한 볼륨을 "느끼기"위해 간단한 추정을 할 수 있습니다. 텍스트 형식으로 된 약 7백만 개의 ComputerPress 잡지 페이지 또는 거의 57,000개의 고유한 잡지 호를 47GB 디스크에 저장할 수 있습니다. 이 버전의 ComputerPress의 경우 실패 없이 작동하려면 거의 5,000년이 걸립니다. 고품질 자기 코팅이 적용된 하드 드라이브(보통 여러 개, 극히 드물게 하나)는 하드 드라이브의 밀봉된 케이스 내부에서 엄청난 일정한 속도(5400, 7200, 10,000, 15,000rpm)로 회전합니다. 그것들은 회전하는 샤프트인 스핀들에 "묶여 있습니다". 디스크의 정보는 "트랙"(동심원)에 있으며 각 트랙은 조각 섹터로 나뉩니다. 디스크의 각 영역에는 드라이브 제조업체에서 수행하는 로우 레벨 포맷 프로세스를 통해 해당 번호가 부여됩니다. 자기 디스크의 양면 읽기 및 쓰기는 자기 헤드를 사용하여 수행됩니다. 헤드 자체는 특수 레버(adjucator)에 장착되어 있으며 인간의 눈으로 식별할 수 없는 속도로 회전하는 디스크 표면 위로 이동합니다. 헤드가 원하는 디스크 영역에 정착하는 데 걸리는 평균 시간(평균 액세스 시간)은 기본적으로 성능을 반영합니다. 액세스 시간이 짧을수록 하드 드라이브가 빠릅니다. 위의 내용 외에도 하드 드라이브에는 모든 드라이브 전자 장치를 포함하는 컨트롤러 보드가 포함되어 있습니다.

PC'99 사양에 따르면 최신 하드 드라이브는 버스 마스터링 모드와 S.M.A.R.T를 지원해야 합니다. 버스 마스터링은 중앙 프로세서의 참여 없이 버스를 통해 정보를 직접 교환하는 메커니즘입니다. 성능 향상 외에도 이 모드는 중앙 프로세서의 부하를 줄입니다(레이지 소프트 모뎀, 사운드 카드, 동시에 실행되는 응용 프로그램 등 리소스에 대한 경쟁자가 이미 많이 있음). 버스 마스터링 프로토콜을 구현하려면 프로세스의 모든 참가자(하드 디스크 컨트롤러 및 마더보드 칩셋 포함)가 이를 지원해야 합니다. S.M.A.R.T. 기술 (자체 모니터링 분석 및 보고 기술)은 하드 드라이브의 "놀라움"에서 사용자를 보장하는 하드 드라이브의 오류를 예측하기 위한 하드웨어 메커니즘입니다. ATA(IDE) 인터페이스가 있는 최신 하드 드라이브는 최대 33.3MB/s의 하드 드라이브 외부 성능을 제공하는 Ultra ATA/33 모드를 지원해야 합니다. 많은 드라이브가 이미 Ultra ATA/66 인터페이스로 생산되고 있지만(최대 전송 속도는 66.6MB/s), 불행히도 이러한 수치는 현실에서 거의 달성되지 않습니다. 왜냐하면 하드 드라이브의 성능은 데이터의 협소함에 의해 제한되지 않기 때문입니다. 전송 인터페이스, 그러나 주로 역학에 의해.

하드 드라이브 내부의 디스크 회전 속도가 빠르면 진동이 발생하며, 이는 수용할 수 없으며 특수 설계 장치에 의해 감쇠됩니다. 그렇기 때문에 하드 드라이브의 설계 완벽성은 종종 귀로 결정될 수 있습니다.

하드 드라이브 구매: 무엇을 찾아야 할까요?

무역 회사의 가격 목록에서 하드 드라이브를 구입할 때 일반적으로 다음 라인을 찾을 수 있습니다. HDD IBM 13.7GB 5400rpm IDE ATA/66. 이것은 다음과 같이 러시아어로 번역됩니다. IBM에서 제조한 하드 드라이브, 용량 13.7GB, 스핀들 속도 5400rpm, Ultra ATA / 66 인터페이스. 언뜻보기에는 이해할 수없는 것처럼 보입니다. 실제로 하드 드라이브 선택 원칙은 보편적입니다.

  • 권위 있는 상표는 품질을 보증하는 것이 아니라 브랜드 하드 드라이브를 선택해야 한다는 주장입니다. 우선, IBM과 Seagate의 모델을 자세히 살펴보십시오. 다른 회사와 마찬가지로 하드 드라이브 시리즈가 성공하기도 하고 매우 실패하기도 했지만요.
  • 용량이 높을수록 "메가바이트당 가격" 측면에서 하드 드라이브의 수익성이 높아집니다. 그러나 고용량 하드 드라이브는 종종 잊어버린 파일의 덤프가 되며 용량이 적은 하드 드라이브보다 비용이 더 많이 듭니다. 대형 하드 드라이브는 서비스(예: 조각 모음)에 훨씬 더 오랜 시간이 걸리므로 가정용으로 약 10-20GB 용량의 하드 드라이브를 권장할 수 있습니다.
  • 드라이브 스핀들 속도가 높을수록 성능(데이터 쓰기 및 읽기 속도)은 높아지지만 가격이 높아지고 열이 더 강해집니다. 가정 및 사무실에서 사용하는 경우 스핀들 속도가 5400-7200rpm(분당 회전 수 - 분당 회전 수)인 하드 드라이브를 선호하는 것이 좋습니다.
  • IDE(ATA)는 컴퓨터 마더보드에 대한 드라이브의 인터페이스 유형(메커니즘 및 연결 프로토콜)입니다. IDE 인터페이스는 가장 저렴하고 일반적이므로 보편적인 권장 사항이 될 수 있습니다. 더 "전문적인" SCSI 인터페이스는 최대 8개의 장치와 IEEE-1394(FireWire)를 연결할 수 있습니다. SCSI는 높은 가격과 구성 기능으로 인해 IDE보다 널리 보급되지 않았습니다. 그리고 FireWire는 곧 디지털 소비자 전자 제품과 컴퓨터 주변기기 간의 디지털 데이터 교환을 위한 표준이 될 것입니다. 한마디로 비디오 편집, 비디오 디지털화 및 대용량 파일 편집에 종사하지 않는 경우 IDE 인터페이스가 있는 하드 드라이브를 선택하십시오.
  • ATA / 66(동일한 Ultra ATA 66 또는 Ultra DMA 66)은 IDE(ATA) 인터페이스의 확장으로, 예외적인 경우에 66MB/s의 데이터 전송 속도를 달성하고 종종 부하를 줄일 수 있습니다. 중앙 프로세서. 물론 이것은 극히 드물고 몇 초 만에 지속됩니다. 하드 드라이브의 일반적인 성능은 4-5배 낮습니다. 디스크 하위 시스템이 이러한 성능을 개발하려면 마더보드 컨트롤러와 하드 드라이브가 이 표준을 지원해야 합니다. 최신 하드 드라이브는 이미 ATA-100을 지원하며 ATA/33 또는 ATA/66을 지원하는 아날로그 드라이브보다 훨씬 비싸지 않습니다. 결론: 재정이 허락한다면 ATA-100 하드 드라이브를 구입하는 것이 좋지만 ATA/66도 꽤 좋은 선택입니다.

디스크 하위 시스템 최적화 고려 사항

고속 하드 드라이브는 아직 디스크 하위 시스템의 최대 성능을 보장하지 않습니다. 수행원이 왕과 같은 역할을 하는 것처럼 하드 드라이브의 성능은 강제로 작동되는 장치에 따라 다릅니다. 우선, 필요와 기회의 균형이 필요합니다. 실제로 이것은 하드 드라이브를 구입하기 전에 마더보드의 기능을 절대적으로 알아야 함을 의미합니다. ATA-33/66 마더보드용 ATA-100 드라이브 구매는 신중하게 고려하고 정당화해야 합니다. 이것은 무엇보다도 먼저 필요합니다. 불행히도 오래된 i486/P60 드라이브를 업데이트하기 위해 ATA-100 드라이브(7200rpm)를 구입한 경우는 (특히 교육 환경에서) 드문 일이 아닙니다. 이 결정의 재정적 또는 실용적인 가능성에 대해 이야기할 필요가 없습니다. 그러나 우리는 명백한 것에 초점을 맞추지 않고 디스크 하위 시스템의 속도에 영향을 미치는 잘 알려지지 않은 요소를 고려할 것입니다.

하나의 케이블에 2개의 ATA 장치가 있습니다. 좋은가요 나쁜가요? 확실히 나쁘다! 그리고 이것은 동일한 물리적 루프가 두 장치의 전송 매체 역할을 한다는 사실에 의해서만 발생하는 것은 아닙니다. 문제는 컨트롤러가 병렬 작동이 불가능한 각 장치와 함께 작동하는 방식과 다소 다릅니다. 즉, 첫 번째 장치가 명령을 실행할 때까지 두 번째 장치에 액세스할 수 없습니다. 즉, 번들에서 더 느린 장치에 액세스하면 더 빠른 장치는 이전 작업이 완료될 때까지 기다려야 하므로 작업 속도가 크게 느려질 수 있습니다. 이것은 "하드 드라이브-CD-ROM 드라이브" 번들의 예에서 가장 명확하게 볼 수 있습니다. 그렇기 때문에 ATA 장치를 속도에 따라 다른 루프에 배포하는 것이 좋습니다.

버스 마스터링 모드 사용. 가장 먼저 채택된 ATA 표준은 정보 저장 장치 작업을 구성하기 위해 컴퓨터의 중앙 처리 장치(CPU)를 사용하는 것으로 가정했습니다. 이것은 모든 ATA 장치가 여전히 지원해야 하는 PIO(프로그래밍된 입력/출력) 모드였습니다. 동시에 ATA 장치 작업에 귀중한 프로세서 리소스를 소비하는 이 방법의 근시안적 사고는 매우 분명했습니다. 따라서 장비 제조업체는 버스 마스터링 모드(다른 이름은 DMA/UDMA)라는 대안을 제안했습니다. 새로운 모드의 주요 차이점은 데이터 전송 제어 작업에서 CPU를 해제하고 이러한 기능을 ATA 컨트롤러에 위임했다는 것입니다. 결과적으로 더 중요한 작업을 위해 CPU 전원이 해제되어 디스크 하위 시스템의 처리량을 높일 수 있습니다. 이 모드는 5년 이상 모든 마더보드에서 문제 없이 지원되었습니다.

RAID 컨트롤러 사용. 하드 드라이브에 대한 주요 불만 사항은 작은 볼륨과 지속적으로 불충분한 속도입니다. 이는 서버와 워크스테이션 모두에 설치된 하드 드라이브에 해당됩니다. 그러나 서버 디스크 하위 시스템 업그레이드 제안이 경영진의 승인을 받을 기회가 남아 있다면 워크스테이션의 하드 디스크 속도가 충분하지 않다는 불만이 99.9% 확률로 시스템 관리자의 귀에 들리기 전에 죽을 것입니다. . 가정용 컴퓨터의 경우 디스크 하위 시스템을 업데이트하는 데 드는 비용이 가족 예산에서 인출되어야 하므로 상황이 훨씬 더 극적입니다. 동시에 고속 하드 드라이브(ATA-100, 7200rpm)는 현재 20GB에 약 130달러입니다. 여러 물리적 디스크를 하나의 논리적 디스크로 결합할 수 있는 RAID 컨트롤러를 사용하면 난관을 벗어날 수 있습니다. 간단히 말해서 RAID를 사용하는 원리는 여러 물리적 미디어 간에 정보 스트림 읽기/쓰기를 병렬화하는 것입니다. 결과적으로 "결합된" 미디어의 최대 읽기/쓰기 속도는 RAID 어레이를 생성하는 데 사용된 물리적 드라이브의 수만큼 증가합니다. 위의 내용은 저장된 정보의 중복을 의미하지 않는 0레벨 RAID 어레이에만 해당됩니다. 과거에 RAID 어레이는 상당히 고가의 SCSI 하드 드라이브를 사용했습니다. 그러나 약 1년 동안 IDE 인터페이스가 있는 하드 드라이브용 저렴한(36달러부터) RAID 컨트롤러가 시장에 출시되었습니다. 또한 일부 마더보드 제조업체(Abit, MSI 등)는 표준 IDE 인터페이스와 함께 마더보드에 RAID 컨트롤러를 설치합니다. 시장에서 ATA 하드 드라이브용 RAID 컨트롤러 카드의 가장 일반적인 모델은 Promise 및 Abit Hot Rod입니다. 당연히 그들만이 아닙니다. 특히 American Megatrends, Inc. SCSI 하드 드라이브용 RAID 컨트롤러 제조업체로 더 잘 알려진 (AMI)는 AMI HyperDisk ATA-100 RAID(추정 가격 120달러)를 출시하면서 이 시장 부문에 주목했습니다. 결과적으로 언제든지 큰 비용을 들이지 않고도 디스크 하위 시스템의 속도를 높일 수 있습니다. RAID의 상황이 그렇게 낙관적이지 않게 보이도록 꿀 통에 연고를 추가해 보겠습니다. 많은 RAID 컨트롤러에 심각한 문제가 있으며 그 특성은 아직 알 수 없습니다. 예를 들어, IBM DTLA - 3070xx 하드 드라이브 및 HighPoint HPT-366/368/370 칩셋에 구축된 RAID 컨트롤러의 호환성 문제에 대해 이야기하고 있습니다. 이 문제는 몇 주 동안 인터넷 포럼에서 활발하게 논의되었습니다. 그 본질은 IBM DTLA-3070xx 하드 드라이브 기반 HPT - 366/368/370 칩셋 기반의 RAID 컨트롤러를 사용하여 RAID 어레이를 생성하는 경우 예측할 수 없는 데이터 "흘림"이 발생하고 많은 수가 새 하드 드라이브에도 불량 블록이 나타납니다. 사용자 피드백에 따르면 이 문제는 Promise 제품 사용자에게 영향을 미치지 않았지만 HPT-370 컨트롤러가 통합된 마더보드 및 Abit Hot Rod 소유자(Abit VP6 및 Abit BX-133 RAID 보드에서 안정적으로 확인됨)는 충분히 느꼈습니다. 이 현상의 특성은 아직 공식적으로 설명되지 않았지만 컴퓨터가 종료될 때 어레이에 포함된 하드 드라이브가 올바르게 종료되는지에 대해 의문이 제기되고 있습니다. 결과적으로 하드 드라이브 캐시의 데이터가 미디어에 저장되지 않아 데이터 무결성이 침해됩니다. 이 경우 RAID 컨트롤러를 추가 ATA-100 포트의 소스로 사용하는 경우(즉, RAID 기능을 사용하지 않는 경우) 이 문제가 발생하지 않습니다. 가장 짜증나는 것은 ATA-100 하드 드라이브 제품군(DTLA - 3070xx 시리즈)의 최고 대표자 중 일부가 이 영향을 받는다는 것입니다. 다른 제조업체의 하드 드라이브에 대한 유사한 사례에 대한 보고가 없기 때문입니다.

ATA 드라이브의 RAID 어레이 구성에 대한 몇 가지 관찰

이 섹션에서는 백업 서버를 만드는 과정에서 저자의 신뢰할 수 있는 관찰과 이를 기반으로 한 예비 결론을 제시합니다.

상황 1: Abit VP6 Dual PIII - 667은 하나의 RAID 어레이에서 4개의 IBM DTLA-307045와 함께 사용됩니다. 첫 달에는 모든 것이 문제 없이 작동합니다. 대략 다섯 번째 주의 중간에 전체 어레이의 자발적인(하루 만에) "흘림"(불량 블록의 출현)이 발생합니다. 어레이를 분해하고 모든 드라이브를 개별적으로 검사한 결과 각 하드 드라이브에서 엄청난 수의 불량 블록(~3%)이 발견되었습니다. 흥미롭게도 각 드라이브 쌍에 대해 위치 패턴이 반복되었습니다. 결론: HPT-370과 IBM DTLA-3070xx의 공동 상호 작용 문제는 최신 버전의 펌웨어 및 드라이버로는 해결되지 않습니다.

상황 2: 모든 것이 동일하고 내장 RAID 컨트롤러 대신 AMI HyperDisk 100만 사용 또한 장애가 발생한 IBM 디스크는 첫 번째 및 두 번째 컨트롤러 채널에 연결된 2개의 Fujitsu 하드 드라이브와 2개의 Quantum 하드 드라이브로 교체됩니다. 각기. 각 하드 드라이브 쌍을 기반으로 2개의 RAID 어레이를 구성해야 했습니다. 모든 하드 드라이브는 ATA-100(80핀) 케이블을 통해 RAID 컨트롤러에 연결된 랙 모듈에 설치됩니다. 두 개의 어레이를 수동으로 만든 후 예상 크기(MS Windows 2000 OS)의 새 디스크 두 개가 나타나는 것을 확인했습니다. 그 후 데이터 쓰기를 시도하여 포맷할 때 운영 체제가 중단되었습니다. 랙 모듈에서 하드 드라이브 연결은 ATA-33 케이블을 통해 이루어집니다(이 경우 컨트롤러는 UDMA-5 하드 드라이브의 작동 모드를 표시함). 연결 케이블을 ATA-33으로 교체했습니다. 이러한 교체 후 각 부팅 시 컨트롤러는 루프를 교체할 때 우리를 기다리는 불가피한 속도 증가에 대한 경고를 표시하기 시작했습니다. 우리는 깊은 유감으로 이 초대를 무시하고 한 쌍의 드라이브가 정상적으로 작동하기 시작했음을 확인했습니다. 그러나 두 번째 쌍의 연결은 놀라움을 선사했습니다. 생성된 드라이브는 Windows 2000을 사용하여 포맷할 수 없는 것으로 나타났습니다. 포맷이 끝날 때 OS에서 포맷을 계속할 수 없다고 보고했기 때문입니다. 잠시 약점을 겪은 후 HyperDisk에 대한 문서, 특히 어레이 자동 생성에 대한 섹션을 자세히 조사했습니다. 결과적으로 첫 번째 어레이 세트가 파괴되고 두 번째 어레이가 자동으로 생성되었습니다. 그리고 놀라움이 시작되었습니다. 우선, 컨트롤러는 다른 제조업체의 하드 드라이브를 하나의 어레이로 결합했습니다. 즉, 제조업체의 탠덤 대신 혼합 탠덤을 얻었습니다. 어레이를 생성할 때 동일한 하드 드라이브를 사용하라는 호출의 배경에 대해 이상해 보였습니다. 드라이브 쌍이 스트라이프 어레이로 결합되고 4개 모두가 동시에 결합되지 않은 이유도 불분명했습니다. 현재 구성에 대한 연구는 완전한 성능을 확립했습니다. 그러나 Fujitsu와 Quantum 하드 드라이브의 볼륨이 다르기 때문에(비대칭 병합의 결과 어레이당 약 200MB가 손실됨) 하드 드라이브를 대칭적으로 결합하려고 계속 시도했습니다. 어레이 구성에 대한 짧지만 면밀한 연구 후에 구성에 포함된 각 하드 드라이브 쌍이 RAID 컨트롤러의 서로 다른 채널에 물리적으로 연결되어 있음을 알게 되었습니다. ATA 컨트롤러는 채널 중 하나에 연결된 장치와 병렬로 작동할 수 없으며 어레이의 사용은 구성에 포함된 각 장치에 동시 기록을 포함한다는 사실을 기억하여 문제 작동에 대한 예비 결론을 내렸습니다. 하나의 ATA 채널을 구성하는 드라이브를 연결할 때 어레이의 이 가정은 4개의 하드 드라이브가 AMI HyperDisk 컨트롤러에 의해 자동으로 수행되는 2개의 어레이(하나가 아닌)로 결합되었다는 사실에 대한 합리적인 설명을 제공했습니다. 이 가정의 논리적 결론은 기본 마스터 - 보조 슬레이브 및 보조 마스터 - 기본 슬레이브 번들이 동일한 제조업체의 하드 드라이브로 구성되는 방식으로 디스크 구성을 변경하는 것입니다. 드라이브를 다시 연결한 후 어레이가 자동으로 재구성되어 동일한 제조업체의 드라이브로 구성된 두 개의 어레이가 예상되는 결과를 얻었습니다. 결과적으로 어레이에서 200MB 이상의 "줄인" 메가바이트를 얻었습니다. 그러나 운영 체제가 (더 작은) 어레이를 하나만 찾았을 때 우리의 기쁨은 사라졌습니다. 문제에 서명할 당시 운영 체제가 어레이를 "확인"하도록 하려는 모든 시도는 실패했으며, 이는 어레이를 생성하는 과정에서 정확히 동일한 디스크를 사용해야 한다는 또 다른 증거가 될 수 있습니다.

ComputerPress 4 "2001

래스터 그래픽 처리를 위한 중요한 도구인 컴퓨터의 디스크 하위 시스템. 어떤 옵션이 더 빠릅니까?

프리프레스 이미징 워크플로에서 컴퓨터 성능은 중요한 역할을 합니다. 첫째, 전문적인 그래픽 작업을 위한 특정 최소 시스템 요구 사항이 있습니다. 따라서 예를 들어 14인치 모니터와 24비트 색상을 표시할 수 없는 비디오 카드를 사용하여 인쇄된 출판물의 고품질 풀 컬러 레이아웃을 준비하는 것은 거의 불가능합니다. 둘째, 작업 플랫폼이 이러한 최소 요구 사항을 충족한다고 해서 대용량 그래픽 파일로 작업하는 것이 편하다는 의미는 아닙니다. 컴퓨터 작업의 효율성을 높이려면 성능 여유가 있어야 합니다. 이를 통해 리소스 집약적인 작업(크기 조정, 이미지에 필터 적용 등)을 빠르고 이상적으로는 실시간으로 수행할 수 있습니다. 그래픽 스테이션의 전체 성능에 상당한 기여를 하는 것은 디스크 하위 시스템입니다. 파일을 처리할 때 시스템의 "병목 현상"이 되며, 그 양은 컴퓨터의 RAM 양과 비슷합니다.

Wintel 플랫폼용 하드 드라이브의 상황은 항상 다음과 같았습니다. 시장의 하이엔드 부문을 대상으로 하는 SCSI 하드 드라이브가 있었고 이와 동시에 다른 시스템에 설치하기 위해 보다 저렴한 IDE 옵션이 제공되었습니다. 지난 몇 년 동안 IDE 드라이브 분야에서 실질적인 기술 혁신이 있었습니다. 1998년 말에 4.3GB 하드 드라이브가 스핀들 속도 5400으로 모든 면에서 평균으로 간주되었다면 충분합니다. rpm 및 기록 밀도 플래터당 2GB, 2000년 후반에 플래터당 40-45GB/7200rpm/15-20GB가 중간 범주에 속합니다. 이 경우 ATA-100 표준을 사용하고 작업 디스크의 소음을 30dB 정도의 값으로 줄이는 것이 표준이 됩니다.

SCSI 하드 디스크 분야에서는 이러한 성능 향상이 관찰되지 않았습니다. 지금까지 이 표준 디스크의 평균 용량은 플래터당 약 6GB의 기록 밀도로 18GB 수준입니다. 높은 스핀들 속도(10,000rpm이 표준임), 대량의 내장 버퍼(IDE 모델의 경우 4~8MB 대 0.5~2MB)와 같은 다른 중요한 매개변수로 인해 IDE 드라이브보다 성능이 우수합니다. , 그리고 일반적으로 SCSI 기술의 특성 때문이기도 합니다.

그러나 최신 IDE 하드 드라이브는 말 그대로 값비싼 SCSI 하드 드라이브를 밟고 있습니다. 컴퓨터 디스크 하위 시스템의 IDE 버전을 찬성하는 가장 중요한 주장은 고용량, 낮은 열 발산 및 소음 수준과 함께 매우 저렴한 가격(SCSI보다 2-4배 저렴)입니다.

최근 IDE 표준 RAID 어레이가 대중화되면서 상황은 더욱 악화되었습니다. 이전에는 RAID 기술이 주로 SCSI 디스크 하위 시스템에 사용되었습니다. 비교적 저렴한 IDE RAID 컨트롤러가 시장에 등장하면서 IDE 하드 드라이브는 틈새 시장을 더욱 확장할 수 있었습니다. RAID 1(미러) 표준을 사용하면 중복 하드 디스크 수에 비례하여 디스크 하위 시스템의 안정성을 높일 수 있습니다. 따라서 두 개의 동일한 하드 드라이브에서 미러 모드로 RAID 어레이를 구축함으로써 정보를 저장하는 안정성(중복됨)을 두 배로 늘리고 동시에 디스크에서 읽기 속도를 약간 증가시키는 형태로 좋은 보너스를 얻습니다. 어레이(이는 두 개의 하드 드라이브에서 정보 블록을 순차적으로 읽고 이를 단일 스트림으로 구성하기 때문에 가능합니다. 이는 RAID 컨트롤러에 의해 하드웨어 수준에서 수행됨). RAID 0(STRIPE 모드)을 사용하는 경우 어레이를 구성하는 디스크 수에 비례하여 디스크 하위 시스템의 속도가 증가합니다. 정보는 작은 블록으로 나뉘고 디스크에 "흩어져" 있습니다. . 따라서 순전히 이론적으로 어레이의 하드 드라이브 수와 동일한 요소만큼 디스크 하위 시스템의 속도를 높이는 것이 가능합니다. 불행히도 실제로 속도 증가는 그리 크지 않지만 테스트 결과를 평가하여 아래에서 읽을 수 있습니다. RAID 0(스트라이프) 모드의 주요 단점을 언급하지 않는 것은 불가능합니다. 정보 저장의 신뢰성은 사용된 하드 드라이브의 수와 동일한 횟수만큼 정확히 감소합니다. RAID 0 + 1 모드는 미러 및 스트라이프 모드의 일종의 "혼합"인 이러한 불쾌한 효과를 제거하기 위해 특별히 설계되었습니다. RAID 0+1 어레이에는 최소 4개의 하드 드라이브가 필요합니다. 그 결과 단일 드라이브의 신뢰성과 두 배의 용량 및 향상된 성능을 얻을 수 있습니다.

다양한 유형의 하드 드라이브 성능은 종종 많은 사용자에게 혼란을 줍니다. 대부분의 사람들은 "SCSI가 IDE보다 훨씬 빠르고 훌륭하다"는 것만 알고 있으며, "고급" 중 일부는 스트라이프 모드에서 두 디스크의 RAID 어레이가 단일 하드 드라이브보다 정확히 두 배 빠르다고 진심으로 믿고 있습니다. 사실, 이 분야에서 많은 신화가 발전했으며 종종 완전히 잘못된 경우가 많습니다. 이 기사는 다양한 유형의 디스크 하위 시스템의 성능을 정확하게 측정하여 문제를 해결하려는 시도입니다. 합성 테스트 제품군(일반적으로 거의 사용되지 않음)이 성능을 평가하는 데 사용되지 않고 PC의 그래픽에 전문적으로 관련된 사람들의 무기고에서 가장 실용적인 작업이라는 사실에 특별한 주의를 기울이고 싶습니다. .

따라서 다음과 같은 디스크 하위 시스템 변형이 테스트되었습니다.

IDE- ATA-33 인터페이스가 있는 오래된 하드 드라이브(5400rpm, 512kb 캐시, 플래터당 4GB) - Fujitsu MPD3130AT; 마더보드 - ATA-33 컨트롤러가 내장된 i440BX.
IDE- ATA-33 인터페이스가 있는 새로운 시리즈 하드 드라이브(7200rpm, 2048KB 캐시, 플래터당 20GB) - Western Digital WD200 i440BX, ATA-33(임베디드).
IDE- ATA-100 인터페이스가 있는 새로운 시리즈 하드 드라이브(7200rpm, 2048KB 캐시, 플래터당 20GB) - Western Digital WD200 FastTrak100(SPAN) RAID 컨트롤러를 약속합니다.
RAID- 스트라이프 모드의 2개의 최신 IDE 드라이브 어레이 - 2xWestern Digital WD200; Highpoint Technologies HPT370 UDMA/ATA 100 RAID 컨트롤러(STRIPE).
SCSI- SCSI Ultra160 인터페이스가 있는 고급형 하드 드라이브(10,000rpm, 4096KB 캐시, 플래터당 6GB) - Fujitsu MAJ 3182 MP; SCSI 컨트롤러 - Adaptec 29160N.

실험의 순수성을 위해 디스크 하위 시스템의 각 버전은 "처음부터" 시스템에 절대적으로 설치되었습니다. 디스크(또는 디스크 어레이)는 FDISK 프로그램에 의해 3개의 논리적 디스크로 분할되었습니다. 이 경우 부팅 파티션(논리 드라이브 C:\)의 크기는 항상 3GB로 설정되었습니다. 나머지 공간은 D:\ 및 E:\ 드라이브 간에 균등하게 분할되었습니다. 운영 체제는 C:\ 드라이브에 설치되었으며 Photoshop 페이징 파일은 D:\ 드라이브에 있습니다. 테스트 파일도 있었습니다. 파일 시스템은 FAT32입니다.

디스크 하위 시스템에 좋은 부하를 주고 성능을 평가하기 위해 RAM의 양은 128MB로 제한되었습니다(래스터 그래픽과 함께 작동하도록 설계된 이 클래스의 시스템에서 256MB가 엔트리 레벨이라는 사실에도 불구하고). . Photoshop 5.5에서 사용할 수 있는 메모리 양은 총 여유 메모리의 50%로 설정되었습니다. 이 볼륨은 약 57MB였습니다. 모든 테스트는 크기가 다른 두 개의 파일로 실행되었습니다. 첫 번째 파일의 크기는 Photoshop에서 사용할 수 있는 메모리 양의 1/5이고 두 번째 파일의 크기는 1.5배 더 큽니다(). 이를 통해 두 가지 경우에 특정 작업을 수행하는 속도에 대한 데이터를 얻을 수 있었습니다. 처리 중인 파일이 여유 공간을 두고 RAM에 맞는 경우와 전체가 RAM에 맞지 않는 경우입니다. 더 작은 크기의 파일의 경우 다른 디스크 하위 시스템에서 얻은 결과가 거의 동일하므로 전혀 놀라운 일이 아닙니다. 주요 처리는 RAM에서 발생했습니다. 이 경우의 차이점은 파일을 열고 저장할 때 읽기/쓰기 작업에서만 눈에 띕니다. 큰 파일을 처리할 때 완전히 다른 그림이 관찰되었습니다. 파일이 RAM에 완전히 맞지 않았기 때문에 Photoshop은 컴퓨터의 디스크 하위 시스템을 적극적으로 사용했습니다. 이 테스트의 결과는 가장 많은 것을 보여주는 다이어그램 형태로 제시됩니다. 더 작은 파일 크기와 더 강력한 프로세서를 사용한 테스트를 포함한 전체 결과는 요약 표 #2에서 볼 수 있습니다.

사용된 모든 설정이 표에 나열되어 있으므로 관심 있는 사용자는 다른 시스템에서 이 기사의 모든 테스트를 반복할 수 있습니다. 테스트 파일은 다음과 같이 생성되었습니다. CMYK balloons.tif는 ... \Adobe\Photoshop5.5\Goodies\Samples\ 디렉토리에서 가져왔습니다. RGB로 변환한 후 최대 2240x1680 및 6400x4800 픽셀로 확장되어 각각 10.7 및 89.7MB의 두 TIFF RGB 파일이 생성되었습니다. 모든 작업은 수신된 파일에 대해 수행되었습니다. 각 작업 후 실행 취소 명령에 의해 결과가 취소되었습니다. 마지막 작업(저장)은 CMYK 형식으로 수행되었습니다. 각 테스트는 세 번 실행되었고 결과는 평균화되었습니다. 각 테스트 후 시스템이 재부팅되었습니다.

시스템 #1: 후지쯔 MPD3130AT; i440BX, ATA-33

Fujitsu MPD 시리즈 하드 드라이브는 충분히 가치 있는 베테랑입니다. 1년 반 전에는 Fujitsu MPD, Quantum CR 및 기타 유사 제품과 같은 등급의 하드 드라이브가 IDE 표준 하드 드라이브 부문에서 가장 빨랐습니다. 이 하드 드라이브에는 3개의 4.32GB 플래터, 6개의 읽기/쓰기 헤드 및 512KB 버퍼가 내장되어 있습니다. 평균 탐색 시간 - 9.5/10.5ms(읽기/쓰기), 스핀들 속도 - 5400rpm, 소음 수준 - 36dB. ATA-66 표준이 지원되지만 데이터 전송 속도가 14.5-26.1MB/s 범위에 있으므로 ATA-33 표준(33.3MB / 초) .

Fujitsu MPD3130AT는 안정적이고 조용한 하드 드라이브임이 입증되었습니다. 작동 중 회전하는 스핀들의 소음은 거의 들리지 않지만 위치 결정 헤드의 소리는 명확하게 구별됩니다. 디스크는 거의 가열되지 않습니다. 장기간 사용하더라도 케이스는 차갑거나 거의 따뜻하지 않습니다.

테스트에서 MPD3130AT는 가장 가까운 경쟁자 WD200(회전 속도 - 각각 5400 및 7200 rpm, 기록 밀도 - 플래터당 4.3GB 대 20GB)과의 특성 차이를 감안할 때 다른 모든 참가자에게 크게 졌지만 전혀 놀라운 일이 아닙니다. ).

두 가지 다른 운영 체제에서 테스트한 결과 다소 상충되는 결과가 나타났습니다. Windows 98은 파일 열기 및 저장 작업보다 훨씬 빠른 반면 Windows 2000은 다른 모든 것보다 훨씬 빠릅니다. 그렇지 않으면 놀라움이 없습니다.

시스템 #2: 웨스턴 디지털 WD200; i440BX, ATA-33.

WD200은 차세대 하드 드라이브의 대표 제품입니다. 주요 매개변수는 7200rpm이고 내부 캐시는 2048KB로 증가했으며 기록 밀도는 플래터당 20GB입니다. 디스크에는 하나의 플래터와 두 개의 헤드가 있습니다. 제조사에서 발표한 평균 탐색 시간은 8.9/10.9ms로 후지쯔 MPD3130AT의 특성과 크게 다르지 않다. 그러나 WD200은 눈에 띄게 빠릅니다. 첫째, 내장 버퍼의 볼륨이 클수록 영향을 미칩니다. 둘째, "버퍼-표면" 섹션의 환율이 인상적인 30.5-50MB/s에 이릅니다. 결국 플래터당 20GB는 심각한 기록 밀도입니다.

작동 중에 디스크는 매우 긍정적인 것으로 판명되었습니다. 스핀들 속도가 증가했음에도 불구하고 Fujitsu MPD(공시 소음 수준 - 30dB)보다 더 조용한 것으로 나타났습니다. 머리의 움직임은 거의 들리지 않습니다.

열 발산으로 상황이 더 나빠지지만 꽤 받아 들일 수 있습니다. 1시간의 집중적인 작업 후에 하드 드라이브는 최대 45도까지 가열되었습니다. 만졌을 때 따뜻하지만 뜨겁지 않은 느낌.

일반적으로 이 구성은 매우 호의적인 인상을 남겼으며 가격 대비 성능 측면에서 확실한 챔피언입니다. 스스로 판단하십시오 - 약 $130의 가격으로 이 하드 드라이브는 440VX 칩셋의 ATA-33 컨트롤러가 통합된 완벽한 솔루션을 구성합니다. 그리고 Windows 98에서는 ATA-100을 사용하는 경우와 같이 문제가 없습니다.

시스템 #3: 웨스턴 디지털 WD200; ATA-100 Promise FastTrak100(SPAN).

테스트 결과 매우 흥미로운 점을 발견했습니다. Windows 98에서 ATA-100 인터페이스를 사용할 때 디스크 하위 시스템의 성능은 대부분의 경우 ATA-33을 사용할 때보다 낮았습니다. 그리고 어떤 경우에는 치명적인(5-10배) 성능 저하가 있었습니다! Windows 2000의 결과는 절대적으로 예측 가능했기 때문에(즉, ATA-100이 예상대로 ATA-33보다 빠른 것으로 판명됨) Windows 98 + ATA-100 조합이 올바르게 작동하지 않는 것으로 의심되는 이유가 됩니다. . 아마도 그 이유는 컨트롤러의 특정 모델인 Promise FastTrak100에 있습니다. 또한 대부분의 테스트는 Windows 2000에서 더 빠르게 실행되었습니다.

이 모든 것에서 우리는 논리적인 결론을 도출할 수 있습니다. Windows 98은 그래픽 작업에 적합하지 않습니다. IDE 분야의 최신 개발, 즉 ATA-100 인터페이스 또는 STRIPE 모드의 RAID 어레이를 사용하려면 더 많은 동작을 하는 NT 제품군 운영 체제(Windows NT 4.0 또는 Windows 2000)에서 작업하는 것이 좋습니다. 이러한 모드에서 올바르게.

Windows 2000을 사용할 때 ATA-33에서 ATA-100으로 전환하여 이득이 있지만 크지는 않습니다.

시스템 #4: 2개의 Western Digital WD200 + HPT370 UDMA/ATA 100 RAID 컨트롤러(STRIPE) 드라이브.

그리고 마지막으로 2개의 동일한 하드 드라이브의 RAID 어레이가 스트라이프 데이터 블록(STRIPE) 모드에서 테스트되었습니다. 64KB의 블록 크기가 가장 최적으로 사용되었습니다(다른 독립적인 테스트에 따르면). 이론적으로 이러한 디스크 하위 시스템의 속도는 단일 디스크의 속도보다 2배 더 빠를 수 있습니다. 그러나 테스트 결과는 낙관할 이유가 없습니다. 대부분의 작업에서 ATA-100 인터페이스가 있는 단일 드라이브에 비해 성능이 5-15% 향상됩니다.

한마디로 실망스러운 결과다. RAID 0 어레이 구축은 위에서 설명한 모든 단점에도 불구하고 IDE 기술을 최대한 활용하려는 사람들에게만 권장할 수 있습니다. 그러나 이것은 PC에서 압축되지 않은 비디오를 입력하는 데 종사하는 사람들에게만 필요할 수 있습니다.

시스템 #5: Fujitsu MAJ 3182 MP + Adaptec 29160N SCSI 컨트롤러.

"경쟁"의 마지막 참가자는 매우 고급 SCSI 하드 드라이브입니다. MAJ 3182가 이 테스트의 "상단 막대"로 선택되었다고 말해야 합니다. 글쎄, 이 하드 드라이브는 그 우월성을 분명히 보여주었습니다. 거의 모든 테스트에서 주요 라이벌인 STRIPE 모드의 RAID 어레이와 "일대일"로 진행됩니다.

Fujitsu MAJ 3182 MP의 잠재적 기능에 대한 아이디어는 특성으로도 알 수 있습니다. 스핀들 속도 - 10,025rpm, 디스크 수 - 3, 헤드 - 5, 평균 탐색 시간 - 4.7/5.2ms, 내장 버퍼 크기 - 4096KB. SCSI Ultra160 인터페이스가 사용되어 "버퍼 컨트롤러" 섹션에서 160MB/s의 동기 데이터 전송 속도를 제공합니다.

이 모든 인상적인 매개변수는 하드 드라이브의 전력 소비와 소음에 영향을 미쳤습니다. Fujitsu MAJ 3182 MP는 매우 뜨겁습니다. 장기간 작동하면 케이스 온도가 60°C까지 상승합니다. 그 이상은 아니더라도 케이스는 분명히 손가락에 화상을 입습니다. 작동 중 소음 수준도 40dB로 작지 않습니다. 그리고 가장 큰 단점은 가격입니다. 이 글을 쓰는 시점에서 한 세트의 하드 드라이브와 SCSI-160 컨트롤러의 가격은 모스크바에서 약 500달러였습니다.

결과

따라서 테스트 결과를 바탕으로 그래픽 스테이션의 디스크 하위 시스템을 업그레이드하려는 사람들에게 유용한 몇 가지 결론을 도출하고자 합니다.

  1. 기록 밀도가 낮고 내장 버퍼가 작은 이전 세대의 디스크는 속도, 용량 및 무소음의 모든 주요 매개변수에서 최신 모델에 비해 크게 떨어집니다. 이전 Fujitsu MPD 클래스 하드 드라이브를 증가된 기록 밀도(플래터당 15-20GB)와 대용량 캐시(2MB)를 갖춘 새로운 고속 하드 드라이브로 자유롭게 변경하십시오. 성능 향상은 100% 이상일 수 있습니다. 또한 위의 모든 사항은 ATA-33 인터페이스를 사용하는 경우에도 유효합니다.
  2. ATA-33에서 ATA-100으로 전환해도 성능이 크게 향상되지 않습니다. 제 생각에는 별도의 ATA-100 컨트롤러를 구입할 가치가 없지만(약 $30) 저렴한 컨트롤러입니다. 적절한 옵션은 이 표준의 "무료" 내장 컨트롤러가 마더보드에 있다는 것입니다.
  3. STRIPE 모드의 RAID 어레이는 SCSI 10,000,000,000,000, 종종 더 높은 수준에서 매우 우수한 성능을 보여주었습니다. 동시에 어레이를 구성하는 2개의 하드 드라이브와 Highpoint의 저렴한 RAID 컨트롤러가 컨트롤러가 없는 SCSI 하드 드라이브 1개보다 저렴하기 때문에 이러한 구성의 매우 매력적인 비용을 고려해야 합니다! (130+130+30 = $290). 그리고 무엇보다 SCSI 버전에 비해 40GB라는 엄청난 용량이 있습니다. 유일하지만 매우 큰 마이너스는 데이터 저장의 신뢰성이 2 배 감소한다는 것입니다. 그러나 이러한 유형의 디스크 어레이가 중요한 정보의 장기 저장이 아니라 운영 작업을 위한 도구로 사용된다면 그 획득이 정당화되는 것 이상입니다.
  4. 최상급 SCSI 하드 드라이브는 예상대로 최고의 성능을 제공합니다.

그러나 이러한 장치의 높은 가격, 높은 방열 및 소음 수준을 고려할 때, SCSI 하드 드라이브는 항상 신뢰성과 높은 MTBF로 유명했기 때문에 타협할 수 없는 고성능(및 디스크 하위 시스템의 신뢰성이 필요한 경우에만 구입이 정당화됩니다. ).

결론적으로 나는 마지막 표의 두 줄, 즉 Pentium-III-650E 프로세서(100MHz 시스템 버스)를 Pentium-III-866EB(133MHz FSB)로 교체할 때의 측정 결과에 주목하고 싶습니다. 보시다시피 프로세서를 훨씬 더 강력한 프로세서로 교체해도 결과가 광범위하지 않습니다. 이것은 선택한 테스트 방법이 정확했음을 보여줍니다(낮은 "프로세서 종속성", 주 부하가 디스크 하위 시스템에 있음).

와 함께 안드레이 니쿨린이메일로 연락 가능: [이메일 보호됨] .

편집자는 도움을 준 Elko Moscow, SMS, Pirit 및 Russian Style에게 감사의 말을 전하고 테스트 장비를 제공했습니다.

표 1. 테스트 플랫폼의 구성:
마더보드 ASUS P3B-F
CPU 인텔 펜티엄 III-650E(FSB 100MHz)
128MB, PC-133 M.tec(2-2-2-8-고속)
비디오 어댑터 크리에이티브 3DBlaster TNT2 울트라
RAID 컨트롤러 Highpoint Technologies HPT370 UDMA/ATA 100 RAID 컨트롤러
ATA-100 컨트롤러 약속 FastTrak100
SCSI 컨트롤러 Adaptec 29160N(단일 채널 32비트 PCI-to-Ultra160 SCSI 호스트 어댑터(OEM))
하드 드라이브 IDE-후지쯔 MPD3130AT
IDE - Western Digital WD200 - 2개
SCSI - Fujitsu MAJ 3182 MP
운영 체제 Windows 98 4.10.1998 + DirectX 7.0a
Windows 2000 Professional 5.00.2195 서비스 팩 1
테스트 프로그램(옵션 설정) Adobe Photoshop 5.5: 캐시 설정: 캐시 수준 - 4
히스토그램에 캐시 사용 옵션이 활성화됨 물리적 메모리 사용량: 사용 가능한 RAM - 113,961KB; Photoshop에서 사용 - 50%; 포토샵 RAM - 56,980KB.
스크래치 디스크: 첫 번째: D:\; 나머지는 비활성화됩니다.
테스트 파일 0.2 포토샵 RAM; 2240x1680 픽셀; 24비트 색상; RGB TIFF, 10.7MB;
1.5 포토샵 RAM; 6400x4800x24; RGB TIFF; 87.9MB

공개 도메인의 잡지.

16.01.1997 패트릭 코리건, 미키 애플바움

서버 디스크 하위 시스템에 대한 구성 옵션은 다양하므로 혼란이 불가피합니다. 이 어려운 문제를 이해하는 데 도움이 되도록 주요 기술과 그 사용의 경제성을 고려하기로 했습니다. 디스크

서버 디스크 하위 시스템에 대한 구성 옵션은 다양하므로 혼란이 불가피합니다. 이 어려운 문제를 이해하는 데 도움이 되도록 주요 기술과 그 사용의 경제성을 고려하기로 했습니다.

서버 디스크 하위 시스템의 경우 선택할 수 있는 옵션이 많지만 너무 많아 자신에게 가장 적합한 시스템을 찾기가 어렵습니다. 상황은 선택 과정에서 상당한 양의 잘못된 정보와 마케팅 과대 광고를 처리해야 한다는 사실로 인해 복잡합니다.

서버 디스크 하위 시스템의 주요 기술을 검토하고 비용, 성능, 안정성 및 내결함성 측면에서 사용 편의성에 대한 논의는 이 문제의 본질을 이해하는 데 도움이 될 것입니다.

디스크 인터페이스

새 서버를 지정하든 기존 서버를 업그레이드하든 디스크 인터페이스는 중요한 문제입니다. 오늘날 대부분의 드라이브는 SCSI 또는 IDE 인터페이스를 사용합니다. 우리는 두 기술을 살펴보고 구현을 설명하고 작동 방식에 대해 논의할 것입니다.

SCSI는 여러 변형이 있는 표준화된 ANSI 인터페이스입니다. 현재 SCSI-I라고 하는 원래 SCSI 사양은 최대 5Mbps의 데이터 속도에서 8비트 데이터 채널을 사용합니다. SCSI-2는 8비트 데이터 채널이 있는 고속 SCSI와 최대 10Mbps의 전송 속도를 포함하여 여러 변형을 허용합니다. 16비트 데이터 채널 및 최대 10Mbps의 전송 속도를 지원하는 와이드 SCSI 16비트 데이터 링크 및 최대 10Mbps의 전송 속도를 지원하는 고속/와이드 SCSI(표 1 참조).

표 1 - SCSI 옵션

SCSI-1 최대 성능 채널 폭 빈도 장치 수*
5Mbps 8자리 5MHz 8
SCSI-2
고속 SCSI 10Mbps 8자리 10MHz 8
고속/와이드 SCSI 20Mbps 16자리 10MHz 8; 16**
* 지원되는 장치에는 HBA가 포함됩니다. ** 불평형 출력 신호로; 미분

"와이드" 16비트 Fast/Wide SCSI의 출현으로 8비트 버전은 때때로 "narrow" - Narrow SCSI라고 불렸습니다. 최근에는 Ultra SCSI, Wide Ultra SCSI 및 SCSI-3과 같은 SCSI 구현이 추가로 등장했습니다. 보다 일반적인 옵션과 비교할 때 이러한 인터페이스는 성능상의 이점이 있지만 아직 널리 보급되지 않았기 때문에(이러한 인터페이스를 사용하는 장치의 수는 매우 제한적임) 이 기사에서는 이에 대해 논의하지 않습니다.

SCSI-I 케이블 시스템은 HBA(호스트 버스 어댑터)를 포함하여 최대 8개의 장치를 연결할 수 있는 라인 버스입니다. 이 버스 디자인을 단일 종단 SCSI SCSI라고 하며 케이블 길이는 최대 9미터입니다. SCSI-2(사실상 SCSI-I 대체)는 단일 종단 SCSI와 차등 SCSI를 모두 지원합니다. 차등 SCSI는 단일 종단 SCSI와 다른 신호 방법을 사용하며 최대 25미터 길이의 루프에서 최대 16개의 장치를 지원합니다. 더 나은 소음 억제를 제공하므로 많은 경우에 더 나은 성능을 제공합니다.

차등 SCSI의 한 가지 문제는 장치 호환성입니다. 예를 들어, 오늘날에는 차등 SCSI 호환 테이프 드라이브와 CD-ROM 드라이브의 종류가 제한되어 있습니다. 차동 장치 및 HBA는 일반적으로 단일 종단 장치보다 약간 더 비싸지만 채널당 더 많은 장치, 더 긴 루프 및 경우에 따라 더 나은 성능을 지원하는 이점이 있습니다.

SCSI 장치를 선택할 때 호환성 문제를 알고 있어야 합니다. 단일 종단 SCSI 및 차등 SCSI는 동일한 배선을 사용할 수 있지만 단일 종단 장치와 차등 장치는 결합할 수 없습니다. Wide SCSI는 Narrow SCSI와 다른 케이블링 시스템을 사용하므로 같은 채널에서 Wide SCSI와 Narrow SCSI 장치를 사용할 수 없습니다.

SCSI 작동 방식

SCSI에서 장치 컨트롤러(예: 디스크 컨트롤러)와 컴퓨터와의 인터페이스는 다른 장치입니다. 컴퓨터 인터페이스(HBA)는 여러 장치 컨트롤러를 연결하기 위해 컴퓨터에 인터페이스 버스를 추가합니다. 단일 종단 SCSI 링크에서 최대 7개의 장치 컨트롤러, 차동 링크에서 최대 15개입니다. 기술적으로 각 컨트롤러는 최대 4개의 장치를 지원할 수 있습니다. 그러나 오늘날의 고용량 드라이브의 높은 전송 속도에서는 일반적으로 장치 컨트롤러가 드라이브에 내장되어 소음과 전기 소음을 줄입니다. 즉, 단일 종단 SCSI 링크에는 최대 7개의 드라이브가 있고 차등 SCSI 링크에는 최대 15개의 드라이브가 있을 수 있습니다.

SCSI의 장점 중 하나는 여러 개의 겹치는 명령을 처리한다는 것입니다. 이러한 중복 I/O 지원은 SCSI 드라이브가 시스템의 다른 드라이브와 읽기 및 쓰기를 완전히 혼합할 수 있는 기능을 제공하므로 다른 드라이브가 한 번에 하나씩 명령을 처리하는 대신 병렬로 명령을 처리할 수 있습니다.

SCSI 디스크 인터페이스의 모든 인텔리전스가 HBA에 있으므로 HBA는 디스크에 대한 OS 액세스를 제어합니다. 결과적으로 컴퓨터가 아닌 HBA가 변환 및 장치 액세스 충돌을 해결합니다. 일반적으로 이것은 올바르게 작성되고 설치된 드라이버를 사용하는 경우 컴퓨터와 OS가 장치 간에 차이를 인식하지 못한다는 것을 의미합니다.

또한 HBA는 컴퓨터의 내부 확장 버스와 SCSI 버스 간의 액세스를 제어하므로 링크 끊기/복원 서비스와 같은 고급 기능을 제공하여 두 버스 모두에 대한 액세스 충돌을 해결할 수 있습니다. 중단/복구를 사용하면 OS가 특정 장치에 찾기, 읽기 또는 쓰기 명령을 보낼 수 있으며, 그 후 드라이브는 명령을 실행하도록 남겨져 동일한 채널의 다른 드라이브가 그 동안 명령을 받을 수 있습니다. 이 프로세스는 특히 데이터가 디스크에 스트라이핑되거나 흩어져 있는 경우 2개 이상의 디스크가 있는 디스크 채널의 처리량을 크게 향상시킵니다. 또 다른 향상된 기능은 디스크 채널의 전체 처리량과 데이터 무결성이 증가하는 동기식 데이터 교환입니다.

IDE

IDE는 x86 기반 PC에서 널리 사용되는 사실상의 표준입니다. 이것은 제조업체에 대한 일반적인 권장 사항이므로 모든 사람이 자신의 장치 및 어댑터에 대한 특정 IDE를 자유롭게 개발할 수 있습니다. 결과적으로 다른 제조업체의 제품, 심지어 동일한 제조업체의 다른 모델이라도 서로 호환되지 않는 것으로 나타났습니다. 사양이 정해지면 이 문제는 거의 사라졌지만 여전히 비호환성이 있습니다.

SCSI와 달리 IDE는 HBA가 아닌 디스크에 인텔리전스를 제공합니다. IDE용 HBA는 지능이 거의 또는 전혀 없으며 단순히 컴퓨터의 버스를 디스크로 직접 출력합니다. 중간 인터페이스가 없으면 하나의 IDE 채널에 있는 장치 수는 2개로 제한되고 케이블 길이는 3미터로 제한됩니다.

IDE 장치의 모든 지능은 장치 자체에 있기 때문에 채널의 장치 중 하나는 채널 마스터로 할당되고 두 번째 장치의 내장 컨트롤러는 비활성화되어 슬레이브(샤넬 슬레이브)가 됩니다. 마스터 장치는 IDE 채널을 통해 두 장치에 대한 액세스를 제어하고 모든 I/O 작업을 수행합니다. 이것은 IDE 인터페이스의 다른 벤더 구현으로 인한 장치 간의 충돌 가능성 중 하나입니다. 예를 들어, 하나의 드라이브가 특정 컨트롤러 구성표와 함께 작동하도록 설계될 수 있지만 연결된 호스트는 다른 컨트롤러 유형을 사용할 수 있습니다. 또한 최신 EIDE(Enhanced IDE) 드라이브는 확장된 명령 집합과 변환 테이블을 사용하여 더 큰 용량과 고성능 드라이브를 지원합니다. 이전 표준인 IDE 마스터 드라이브에 연결하면 고급 기능이 손실될 뿐만 아니라 사용 가능한 모든 용량을 제공하지 못할 수도 있습니다. 설상가상으로 OS를 사용하지 않고도 전체 용량을 OS에 보고할 수 있어 디스크 정보가 손상될 수 있습니다.

데이터 손상 가능성은 각 운영 체제가 고유한 방식으로 디스크 구성 정보를 인식하기 때문입니다. 예를 들어, DOS 및 시스템 BIOS는 최대 528MB의 디스크 용량만 허용합니다. NetWare 및 기타 32비트 시스템에는 이러한 제한이 없으며 전자 장치를 통해 전체 IDE 드라이브를 직접 읽을 수 있습니다. 동일한 디스크에 서로 다른 운영 체제의 여러 파티션을 생성하면 각각의 용량과 구성이 다르게 표시되며 이로 인해 파티션 테이블이 겹치게 되어 디스크의 데이터 손실 위험이 크게 증가할 수 있습니다.

원래 IDE 아키텍처는 528MB보다 큰 드라이브를 인식하지 않으며 최대 3Mbps의 전송 속도로 채널당 두 개의 장치만 지원할 수 있습니다. IDE의 몇 가지 한계를 극복하기 위해 EIDE 아키텍처가 1994년에 도입되었습니다. EIDE는 더 높은 용량과 성능을 지원하지만 9~16Mbps의 전송 속도는 여전히 SCSI보다 느립니다. 또한 SCSI의 경우 채널당 15개의 장치와 달리 채널당 최대 4개의 장치를 지원할 수 있습니다. 또한 IDE나 EIDE 모두 멀티태스킹 기능을 제공하지 않습니다. 따라서 일반적인 서버 환경에서 SCSI 인터페이스와 동일한 수준의 성능을 제공할 수 없습니다.

원래는 디스크용으로 설계되었지만 IDE 표준은 이제 테이프 드라이브와 CD-ROM을 지원합니다. 그러나 CD-ROM이나 테이프 드라이브로 채널을 분할하면 디스크 성능에 부정적인 영향을 줄 수 있습니다. 전반적으로 SCSI의 성능 및 확장성 이점은 고성능을 요구하는 대부분의 고급 서버 응용 프로그램에 대해 IDE 또는 EIDE보다 더 나은 선택입니다. 그러나 성능이나 확장성이 큰 문제가 아닌 보급형 응용 프로그램의 경우 IDE 또는 EIDE로 충분합니다. 동시에 디스크 중복성이 필요한 경우 마스터-슬레이브 접근 방식과 관련된 잠재적인 문제로 인해 IDE가 최선의 옵션이 아닙니다. 또한 가능한 파티션 테이블 겹침 및 마스터-슬레이브 장치 비호환성 문제에 주의해야 합니다.

그러나 IDE 및 EIDE 인터페이스를 고급 서버에서 사용할 수 있는 몇 가지 경우가 있습니다. 예를 들어 NetWare 서버의 DOS 파티션에 작은 IDE 드라이브를 사용하는 것이 일반적입니다. 소프트웨어 다운로드를 위해 IDE 인터페이스가 있는 CD-ROM 드라이브를 사용하는 것도 널리 시행되고 있습니다.

중복 디스크 시스템

서버 사양을 정의할 때 논의해야 할 또 다른 중요한 문제는 중복성입니다. 다중 디스크 디스크 시스템의 안정성을 향상시키는 몇 가지 방법이 있습니다. 이러한 중복 구성표의 대부분은 RAID의 변형입니다("저렴한 또는 독립 디스크의 중복 배열"을 나타냄). 원래 RAID 사양은 크고 값비싼 메인프레임 및 미니컴퓨터 디스크를 미니컴퓨터용으로 설계된 작고 저렴한 디스크 어레이로 대체하도록 설계되었으므로 "저렴한"이라는 표현이 사용되었습니다. 불행히도 RAID 시스템에서는 저렴한 제품을 거의 볼 수 없습니다.

RAID는 다양한 수준의 보호 및 데이터 전송 속도를 제공하기 위한 일련의 중복 디스크 어레이 구현입니다. RAID는 디스크 어레이를 사용하므로 SCSI는 최대 15개의 장치를 지원할 수 있으므로 사용하기에 가장 좋은 인터페이스입니다. 0에서 5까지의 6가지 RAID 레벨이 있습니다. 일부 제조업체는 RAID-6, RAID-7 이상이라고 하는 자체 중복 구성표를 광고합니다. (RAID-2 및 RAID-4는 네트워크 서버에 있지 않으므로 이에 대해서는 언급하지 않겠습니다.)

모든 RAID 레벨 중에서 0은 가장 높은 성능과 가장 낮은 보안을 갖습니다. 디스크는 하나의 물리적 장치처럼 보이는 동안 최소 두 개의 장치와 두 디스크에 동기화된 데이터 쓰기를 가정합니다. 여러 디스크에 데이터를 쓰는 과정을 드라이브 스패닝이라고 하며 이 데이터를 쓰는 실제 방법을 데이터 스트라이핑이라고 합니다. 스트라이핑을 사용하면 데이터가 블록 단위로 모든 디스크에 기록됩니다. 이 프로세스를 블록 인터리빙이라고 합니다. 블록 크기는 운영 체제에 의해 결정되지만 일반적으로 2KB에서 64KB 사이입니다. 디스크 컨트롤러 및 HBA의 설계에 따라 이러한 순차 쓰기가 중복되어 성능이 향상될 수 있습니다. 예를 들어 RAID-0은 자체적으로 성능을 향상시킬 수 있지만 오류 보호 기능은 제공하지 않습니다. 드라이브에 장애가 발생하면 전체 하위 시스템에 장애가 발생하여 일반적으로 데이터가 완전히 손실됩니다.

데이터 인터리빙의 변형은 데이터 분산입니다. 스트라이핑과 마찬가지로 데이터는 채워지는 여러 디스크에 순차적으로 기록됩니다. 그러나 스트라이핑과 달리 모든 디스크에 쓸 필요는 없습니다. 디스크가 사용 중이거나 꽉 찬 경우 사용 가능한 다음 디스크에 데이터를 쓸 수 있습니다. 이를 통해 기존 볼륨에 디스크를 추가할 수 있습니다. RAID-0 표준과 마찬가지로 디스크 채우기와 데이터 스트라이핑을 결합하면 성능이 향상되고 볼륨 크기가 증가하지만 장애 보호 기능은 제공하지 않습니다.

디스크 미러링으로 알려진 RAID-1에는 동일한 디스크 쌍을 설치하는 작업이 포함되며 쌍의 각 디스크는 다른 디스크의 미러 이미지입니다. RAID-1에서 데이터는 동일하거나 거의 동일한 두 쌍의 디스크에 기록됩니다. 예를 들어, 하나의 디스크에 장애가 발생하면 시스템은 미러링된 디스크로 계속 작동합니다. 미러링된 디스크가 공통 HBA를 공유하는 경우 데이터가 각 디스크에 순차적으로 기록되어야 하므로 단일 디스크와 비교하여 이 구성의 성능이 저하됩니다.

Novell은 미러링의 정의를 좁히고 이중화 개념을 추가했습니다. Novell 용어에 따르면 미러링은 단일 HBA를 통해 서버나 컴퓨터에 연결된 디스크 쌍을 의미하고 복제는 별도의 HBA를 통해 연결된 미러링된 디스크 쌍을 의미합니다. 중복성은 HBA, 케이블 및 디스크를 포함한 전체 디스크 채널에 대한 중복성을 제공하고 일부 성능 향상을 제공합니다.

RAID-3에는 최소 3개의 동일한 드라이브가 필요합니다. 최대 시스템 용량은 어레이의 총 드라이브 수(n)에서 패리티용 드라이브 1개를 뺀 값이기 때문에 "n 빼기 1"(n-1)이라고도 합니다. RAID-3은 데이터가 모든 디스크에 비트 단위로 기록되는 비트 인터리빙이라는 쓰기 방법을 사용합니다. n-디스크에 기록된 각 바이트에 대해 패리티 비트가 "패리티 디스크"에 기록됩니다. 이것은 패리티 정보가 생성되어 "패리티 디스크"에 기록되기 전에 어레이의 n개 디스크 각각에 데이터를 기록해야 하기 때문에 매우 느린 프로세스입니다. 디스크 회전 메커니즘이 단계적으로 엄격하게 작동하도록 동기화하여 RAID-3의 성능을 높일 수 있습니다. 그러나 성능 제한으로 인해 RAID-3의 사용이 급격히 감소했으며 현재 RAID-3 기반 서버 제품이 거의 판매되지 않습니다.

RAID-5는 네트워크 서버 시장에서 가장 널리 사용되는 RAID 구현입니다. RAID-3와 마찬가지로 최소 3개의 동일한 디스크가 필요합니다. 그러나 RAID-3와 달리 RAID-5는 패리티 전용 디스크를 사용하지 않고 데이터 블록을 스트라이프합니다. 데이터와 체크섬은 모두 전체 배열에 기록됩니다. 이 방법을 사용하면 디스크에 대한 독립적인 읽기 및 쓰기가 가능하며 운영 체제 또는 RAID 컨트롤러가 여러 동시 I/O를 수행할 수도 있습니다.

RAID-5 구성에서 디스크는 패리티 정보 또는 데이터를 읽고 쓸 때만 액세스됩니다. 결과적으로 RAID-5는 RAID-3보다 성능이 더 좋습니다. 실제로 RAID-5의 성능은 단일 디스크 시스템의 성능과 일치하거나 심지어 초과할 수도 있습니다. 물론 이러한 성능 향상은 RAID 어레이가 구현되는 방식과 서버 운영 체제의 기본 기능을 비롯한 여러 요인에 따라 달라집니다. 또한 RAID-5는 데이터와 패리티가 모두 스트라이프 형식으로 기록되기 때문에 표준 RAID 구현에서 가장 높은 수준의 데이터 무결성을 제공합니다. RAID-5는 비트 스트라이핑이 아닌 블록 스트라이핑을 사용하기 때문에 스핀 동기화에 대한 성능상의 이점이 없습니다.

일부 제조업체는 RAID-5 시스템에 확장 기능을 추가했습니다. 이러한 확장 중 하나는 어레이에 내장된 "핫 스페어" 디스크의 존재입니다. 드라이브에 장애가 발생하면 핫 스페어가 즉시 충돌 드라이브를 교체하고 백그라운드에서 패리티 복구를 사용하여 데이터를 다시 자체에 복사합니다. 그러나 RAID-5 디스크를 재구축하면 서버 성능이 크게 떨어집니다. (핫 스왑 및 핫 스페어 드라이브에 대한 자세한 내용은 사이드바 "핫" 드라이브 기능을 참조하십시오.)

RAID 시스템은 서버에 로드된 소프트웨어의 도움과 작동을 위한 프로세서의 사용, 그리고 특수 RAID 컨트롤러의 도움으로 구성할 수 있습니다.

소프트웨어 구현 RAID 시스템은 상당한 양의 시스템 프로세서 리소스와 시스템 메모리를 차지하므로 서버 성능이 크게 저하됩니다. 소프트웨어 RAID 시스템은 때때로 운영 체제의 기능(Microsoft Windows NT Server에서와 같이) 또는 타사 애드온(NetWare 및 Macintosh 운영 체제에서와 같이)으로 포함됩니다.

하드웨어 기반 RAID 시스템은 전용 RAID 어레이 컨트롤러를 사용합니다. 일반적으로 디스크 I/O 및 패리티를 위한 자체 프로세서, 캐시 및 ROM 소프트웨어가 있습니다. 이러한 작업을 수행하는 전용 컨트롤러가 있으면 서버 프로세서가 다른 기능을 수행할 수 있습니다. 또한 프로세서와 어댑터 소프트웨어는 RAID 기능에 맞게 특별히 조정되었기 때문에 소프트웨어 기반 RAID 시스템보다 더 나은 디스크 I/O 성능과 데이터 무결성을 제공합니다. 불행히도 하드웨어 기반 RAID 컨트롤러는 소프트웨어 기반 경쟁업체보다 더 비싼 경향이 있습니다.

미러링, 복제 및 채우기

NetWare 및 Windows NT Server를 포함한 일부 운영 체제는 여러 디스크 채널에 걸쳐 디스크 미러링을 허용하므로 추가 계층의 중복성을 제공합니다. 앞에서 언급했듯이 Novell은 후자의 접근 방식을 디스크 복제라고 부릅니다. 디스크 채우기와 결합할 때 복제는 단일 디스크 시스템보다 더 나은 성능을 제공할 수 있으며 일반적으로 하드웨어 RAID-5 구현보다 성능이 뛰어납니다. 미러링된 디스크 쌍의 각 절반은 별도의 디스크 채널을 사용하므로 디스크가 동일한 HBA에 있는 경우와 달리 디스크에 대한 쓰기가 동시에 기록될 수 있습니다. 또한 복제는 더 빠른 실행을 위해 디스크 채널 간에 읽기 요청을 나누는 프로세스인 분할 검색을 허용합니다. 이 기능은 두 채널이 동일한 데이터 세트에서 병렬로 다른 블록을 검색하므로 디스크 읽기 성능을 두 배로 높입니다. 또한 한 채널은 데이터를 읽을 수 있고 다른 채널은 쓸 수 있으므로 디스크에 쓸 때 성능에 미치는 영향을 줄입니다.

NetWare는 최대 8개의 디스크 채널을 지원합니다(일부 SCSI 어댑터는 다중 채널을 제공함). 이는 각 복제 쌍에 대해 다중 채널을 가질 수 있음을 의미합니다. 최대 8개의 개별 미러 채널을 구성하도록 선택할 수도 있습니다. Windows NT Server는 또한 소프트웨어 기반 미러링 및 복제를 제공하지만 병렬 쓰기 및 개별 검색은 아직 지원하지 않습니다.

중복 디스크 시스템을 선택할 때 고려해야 할 4가지 주요 요소가 있습니다: 성능, 비용, 안정성 및 장애 방지.

성능 면에서 서버 운영 체제의 기본 제공 기능은 특히 디스크 중복성이 작동할 때 중요한 요소입니다. 이전에 언급했듯이 NetWare 디스크 복제와 디스크 채우기는 하드웨어 또는 소프트웨어 RAID보다 더 나은 성능을 제공합니다. 그러나 하드웨어 RAID의 성능은 일반적으로 Windows NT Server의 기본 제공 디스크 서비스보다 우수합니다. 일반적으로 말해서 RAID 시스템의 기술과 성능은 수년에 걸쳐 지속적으로 향상되었습니다.

RAID 시스템의 또 다른 잠재적인 성능 문제는 재해 발생 시 데이터 복구입니다. 최근까지 드라이브에 장애가 발생하면 RAID 어레이를 꺼야 복구할 수 있었습니다. 또한 어레이의 크기를 변경하려면(용량을 늘리거나 줄이려면) 시스템 전체를 백업한 다음 어레이를 재구성하고 다시 초기화하여 이 과정에서 모든 데이터를 지워야 했습니다. 두 경우 모두 시스템을 꽤 오랫동안 사용할 수 없습니다.

이 문제를 해결하기 위해 Compaq은 기존 어레이 구성을 다시 초기화하지 않고도 어레이의 용량을 확장할 수 있는 Smart Array-II 컨트롤러를 개발했습니다. DPT(분산 처리 기술)를 포함한 다른 제조업체는 머지 않아 컨트롤러가 유사한 기능을 수행할 것이라고 발표했습니다. 많은 새 어레이에는 서버를 종료하지 않고 손상된 장치를 교체한 후 어레이를 복원하는 데 사용할 수 있는 다양한 운영 체제용 유틸리티가 있습니다. 그러나 이러한 유틸리티는 많은 서버 리소스를 소모하므로 시스템 성능에 부정적인 영향을 미친다는 점을 염두에 두십시오. 이러한 어려움을 피하기 위해서는 업무 외 시간에 시스템 복구를 진행해야 합니다.

미러링, 복제 및 RAID 구현 간의 비용 차이에 대해 업계 및 RAID 공급업체 간행물에서 수많은 논의가 있었습니다. 미러링 및 복제는 디스크 및 (중복된 경우) HBA를 100% 두 배로 늘리는 반면 RAID 구현에는 원하는 용량보다 1개의 HBA 및/또는 RAID 컨트롤러와 1개의 디스크가 있습니다. 이러한 주장에 따르면 RAID는 필요한 디스크 수가 적기 때문에 더 저렴합니다. Windows NT에서 볼 수 있는 것과 같이 운영 체제에 포함된 소프트웨어 RAID 구현의 성능 제한이 허용된다면 사실일 수 있습니다. 그러나 대부분의 경우 적절한 성능을 달성하려면 전용 RAID 컨트롤러가 필요합니다.

드라이브와 표준 SCSI 어댑터는 비교적 저렴하지만 고품질 RAID 컨트롤러는 최대 4,500달러입니다. 시스템 비용을 결정하려면 모든 구성 요소에 대한 최적의 구성을 고려해야 합니다. 예를 들어 약 16GB의 주소 지정 가능 디스크 공간이 필요한 경우 채널당 2개의 9GB 디스크로 미러링된 구성을 구현하고 약간의 초과 용량을 확보할 수 있습니다. RAID-5의 경우 성능과 안정성을 위해 5개의 4GB 드라이브를 사용하여 데이터 스트라이핑 스핀들의 수를 늘리고 어레이의 전체 성능을 높이는 것이 좋습니다.

외부 디스크 하위 시스템의 경우 미러 구성 비용은 사용 가능한 공간 18GB당 약 $10,500입니다. 이 수치는 실제 소매 가격을 기반으로 합니다. 드라이브 1개당 2000달러, HBA 1개당 250달러, 케이블을 포함한 각 외부 디스크 하위 시스템당 300달러입니다. 5개의 4GB 디스크를 사용하여 16GB의 주소 지정 가능 공간으로 구성된 RAID-5 시스템의 비용은 약 $12,800입니다. 이 수치는 DPT RAID-5 어레이의 실제 소매가를 기준으로 합니다.

많은 RAID 시스템에는 제조업체가 설계한 "독점" 구성 요소가 포함되어 있습니다. 최소한 "브랜드"는 케이스와 후면 패널입니다. HBA 및 RAID 컨트롤러도 종종 독점입니다. 일부 제조업체는 비표준 홀더와 디스크용 타이어도 사용합니다. 누군가는 합리적인 가격, 누군가는 디스크와 함께, 일반적으로 높은 가격으로 별도로 제공합니다. 후자의 접근 방식은 시스템을 수정하거나 확장해야 할 때 비용이 많이 들 수 있습니다. 공급업체가 귀하를 코너로 몰아넣는 또 다른 방법은 특정 구성 요소에서만 작동하는 디스크 관리 및 모니터링 소프트웨어를 제공하는 것입니다. 가능하면 비표준 구성 요소를 피함으로써 일반적으로 비용을 낮출 수 있습니다.

중복 디스크 시스템의 안정성을 비교할 때 고려해야 할 두 가지 요소가 있습니다. 시스템 오류 또는 구성 요소의 오류 가능성과 구성 요소 오류로 인한 데이터 손실 가능성입니다. (안타깝게도 RAID나 미러링은 데이터 손실의 주요 원인인 사용자 오류를 방지할 수 없습니다!)

P = t / Tc,

여기서 t는 작동 시간이고 Tc는 구성 요소의 고장 사이의 결합 시간입니다.

1년(8760시간), 가상 디스크의 Tc가 300,000시간인 상태에서 고장 없이 실행하면 고장 확률은 3%가 되어 34개의 경우 중 1보다 약간 작습니다. 구성 요소의 오류가 증가합니다. RAID와 미러링은 모두 실패 가능성을 높이지만 데이터 손실 가능성을 줄입니다.

"지속적인 네트워킹을 위한 내결함성 스토리지 시스템"이라는 제목의 스토리지 차원 게시판에서 가져온 표 2는 위의 공식을 사용하여 계산된 실패 확률 대 4개의 패딩 디스크, 5개 디스크 RAID 어레이 및 8개의 미러링된 디스크. (모든 드라이브가 동일한 크기이고 세 시스템 모두 동일한 가용 용량을 제공한다고 가정합니다. 게시판을 보려면 스토리지 차원 페이지를 방문하십시오. http://www.storageddimensions.com/raidwin/wp-ovrvw.html.)

표 2 - 실패 확률 추정

드라이브 채우기와 결합된 미러링은 디스크 오류의 통계적 확률이 더 높지만 디스크 오류가 발생하는 경우 데이터 손실 확률도 훨씬 낮습니다. 또한 적절하게 설계된 이중화 시스템을 사용하면 복구 시간을 상당히 단축할 수 있습니다.

이 예에서는 많은 요소를 고려하지 않습니다. 통계적으로 정확한 수치를 얻으려면 HBA, 리본 케이블, 전원 코드, 팬 및 전원 공급 장치를 포함한 모든 디스크 시스템 구성 요소의 평균 고장 시간을 계산해야 합니다. 물론 이러한 계산은 제안된 구성 요소의 신뢰성을 고려할 때 발생할 수 있는 일만을 말하지만 이것이 일어날 필요는 전혀 없습니다.

디스크 시스템을 선택할 때 중복되지 않는 구성 요소를 명확하게 알아야 합니다. RAID 시스템에서 여기에는 HBA, RAID 컨트롤러, 전원 공급 장치, 전원 케이블 및 리본 케이블이 포함될 수 있습니다. 각 채널에 별도의 디스크 하위 시스템이 있는 복제의 이점 중 하나는 오류가 발생할 수 있는 단일 위치를 대부분 제거한다는 것입니다.

결론

일반적으로 SCSI 장치는 IDE 또는 EIDE 드라이브보다 서버 디스크 하위 시스템에 더 나은 선택입니다. SCSI 드라이브는 드라이브당 최대 9GB까지 쉽게 구할 수 있지만 오늘날의 EIDE 드라이브는 최대 용량이 약 2.5GB입니다. 다중 이중 링크 HBA를 사용하는 경우 총 SCSI 용량은 쉽게 100GB를 초과할 수 있지만 EIDE 제한은 10GB입니다. SCSI는 또한 더 나은 성능을 제공합니다. 게다가 SCSI는 IDE/EIDE의 마스터-슬레이브 접근 방식이 수반하는 문제를 겪지 않습니다.

디스크 중복성이 필요한 경우 몇 가지 옵션이 있습니다. 디스크 채우기와 결합된 Novell NetWare 이중화는 우수한 성능과 장애 방지 기능을 모두 제공합니다. 하드웨어 기반 RAID도 좋은 선택이지만 일반적으로 성능은 낮고 비용은 높습니다. Windows NT를 사용 중이고 성능이 중요하다면 하드웨어 RAID가 최선의 선택일 수 있습니다.

Patrick Corrigan은 컨설팅 및 교육 회사인 Corrigan Group의 사장 겸 선임 컨설턴트/분석가입니다. 다음 주소로 연락할 수 있습니다. [이메일 보호됨]또는 Compuserve를 통해: 75170.146. Mickey Applebaum은 GSE Erudite Software의 선임 네트워크 컨설턴트입니다. 다음 주소로 연락할 수 있습니다. [이메일 보호됨]

디스크 하위 시스템 기능 소개

디스크 하위 시스템의 "핫" 기능

디스크 하위 시스템의 특정 기능을 설명하는 데 널리 사용되는 핫 스왑, 핫 스페어 및 핫 재구축이라는 용어는 종종 잘못 이해됩니다.

"핫 스왑"은 시스템을 종료하지 않고 디스크 하위 시스템에서 장애가 발생한 디스크를 제거할 수 있는 기능입니다. 핫 스왑 지원은 RAID가 아니라 디스크 하위 시스템의 하드웨어 기능입니다.

핫 스왑 가능한 시스템에서 하드 드라이브는 일반적으로 드라이브와 섀시 사이의 접지 핀이 전원 및 컨트롤러 라인보다 더 오랫동안 연결된 상태를 유지할 수 있도록 하는 슬레드에 장착됩니다. 이것은 접점 사이의 정전기 방전 또는 전기 아크로 인한 손상으로부터 드라이브를 보호합니다. 핫 스왑 가능한 디스크는 RAID 어레이와 미러링된 디스크 시스템 모두에서 사용할 수 있습니다.

"핫 리스토어"는 고장난 디스크가 교체된 후 원래 디스크 구성을 자동으로 복원하는 시스템의 기능을 나타냅니다.

핫 스페어는 RAID 어레이에 내장되어 있으며 일반적으로 필요할 때까지 유휴 상태로 유지됩니다. 핫 스페어가 고장난 드라이브를 교체한 후 어느 시점에서 고장난 드라이브를 교체하고 어레이를 재구성해야 합니다.

핫 스페어 디스크가 있는 핫 스왑 가능한 디스크 시스템에는 반드시 핫 복구 기능이 있는 것은 아닙니다. "핫 스왑"을 사용하면 드라이브를 빠르고 안전하며 쉽게 제거/설치할 수 있습니다. "핫 스페어"는 RAID 어레이에서 오류가 발생한 드라이브를 즉시 교체할 수 있도록 하기 때문에 "핫 재구축"을 제공하는 것처럼 보이지만 재구축 명령을 내리기 전에 오류가 발생한 드라이브를 교체해야 합니다. 오늘날 PC 플랫폼에서 사용할 수 있는 모든 RAID 시스템은 데이터 복원을 시작하기 위해 일정 수준의 사용자 개입이 필요합니다. 최소한 NetWare 서버에서 NLM 모듈을 로드하거나 NT 서버 응용 프로그램 메뉴에서 시작 버튼을 누르는 수준에서입니다.



디스크 하위 시스템 리소스에 대해 이야기할 때 세 가지가 있습니다. 공간 양, 읽기 및 쓰기 속도(MB/s), 읽기-쓰기 속도(초당 입출력 작업 수)(Input/Output per 둘째, IOPS 또는 단순히 I/O).

먼저 볼륨에 대해 이야기합시다. 가이드해야 할 고려 사항과 계산의 예를 제공합니다.

고려 사항은 다음과 같습니다.

디스크 공간은 가상 머신 디스크 파일 자체가 차지합니다. 따라서 얼마나 많은 공간이 필요한지 이해해야 합니다.

VM의 전체 또는 일부에 대해 씬 디스크를 사용하려는 경우 초기 볼륨 및 후속 증가를 계획해야 합니다(이하 씬 디스크는 해당 유형의 vmdk 파일, 즉 ESX(i)의 씬 프로비저닝 기능을 의미합니다. ) 구현) 사실 씬 프로비저닝 기능은 ESX(i)와 상관없이 스토리지 시스템에서 구현할 수 있으며 스토리지 시스템의 기능이 아님을 의미합니다.

기본적으로 각 VM에 대해 하이퍼바이저는 RAM과 크기가 동일한 페이징 파일을 생성합니다. 이 페이징 파일은 VM 폴더(기본값) 또는 별도의 LUN에 있습니다.

스냅샷을 사용할 계획이라면 스냅샷을 위한 장소도 계획해야 합니다. 다음 고려 사항을 출발점으로 삼을 수 있습니다.

스냅샷이 생성 후 짧은 기간 동안 존재할 경우(예: 백업 시에만) VM 디스크 크기의 10%를 스냅샷에 대해 예약합니다.

스냅샷이 평균 또는 예측할 수 없는 강도로 사용되는 경우 VM 디스크 크기의 약 30%를 차지하는 것이 합리적입니다.

VM에 대한 스냅샷이 활발히 사용되는 경우(VM이 테스트 및 개발에 사용되는 시나리오와 관련됨) 스냅샷이 차지하는 양이 가상 디스크의 공칭 크기보다 몇 배 더 클 수 있습니다. 이 경우 정확한 권장사항을 제시하기 어렵지만 각 VM의 크기를 2배로 늘리는 것을 출발점으로 삼을 수 있다. (이하 스냅샷은 ESX(i)의 해당 기능을 의미합니다. 사실 스냅샷은 ESX(i)와 별개로 스토리지 시스템에 구현될 수 있으며, 스토리지 시스템의 기능을 의미하지 않습니다.)

예제 수식은 다음과 같습니다.

VM 그룹의 공간 크기 = VM 수 x (디스크 크기 x T +

디스크 크기 x S + 메모리 크기 - 메모리 크기 x R).

T - 얇은 디스크의 계수. 이러한 디스크를 사용하지 않는 경우 1입니다. 사용하는 경우 VM에 있는 응용 프로그램의 특성에 따라 추상적으로 추정하기 어렵습니다. 기본적으로 씬 디스크는 디스크의 공칭 크기보다 적은 저장 공간을 차지합니다. 따라서 이 계수는 가상 머신 디스크가 차지하는 공칭 크기의 비율을 보여줍니다.

S는 스냅샷의 크기입니다. 연속 사용 기간에 따라 10/30/200%,

R은 예약된 메모리의 백분율입니다. 예약된 메모리가 스왑 파일에 맞지 않아 스왑 파일이 더 작은 크기로 생성됩니다. 크기는 VM 메모리 양에서 예약된 메모리 양을 뺀 것과 같습니다.

예를 들어, 예상 입력 데이터는 표를 참조하십시오. 1.3.

표 1.3. 디스크 하위 시스템의 볼륨 계획을 위한 데이터

필요한 양의 추정치를 얻습니다.

인프라 그룹 - 15 x (20 + 20 x 10% + 2 - 2 x 0) = 360GB,

애플리케이션 서버 - 20 x (40 + 40 x 10% + 2 - 2 x 0) = 920GB;

중요 서버 - 10 x (100 + 100 x 10% + 6 - 6 x 0.5) = 1130GB;

테스트 및 임시 - 20 x (20 x 30% + (20 x 30%) x 200% + 2 - 2 x 0) = = 400GB.

따라서 각각 1.4TB의 LUN 2개를 생성하고 이들 사이에 가상 머신을 거의 균등하게 분배할 수 있습니다. 또는 각각 600800GB의 LUN을 4-5개 생성하고 다른 그룹의 머신을 다른 LUN에 배치합니다. 두 옵션(및 그 사이) 모두 허용됩니다. 그들 사이의 선택은 다른 기본 설정(예: 조직)을 기반으로 합니다.

디스크 하위 시스템의 또 다른 리소스는 성능입니다. 가상 머신의 경우 MB/s 속도는 신뢰할 수 있는 기준이 아닙니다. 많은 수의 VM이 동일한 디스크에 액세스하면 액세스가 일관되지 않기 때문입니다. 가상 인프라의 경우 더 중요한 특성은 입/출력 작업 수(IOPS, 초당 입/출력)입니다. 인프라의 디스크 하위 시스템은 가상 머신 요청보다 더 많은 이러한 작업을 허용해야 합니다.

일반적인 경우 물리적 디스크에 대한 게스트 OS 액세스 경로는 무엇입니까?

1. 게스트 OS는 하이퍼바이저를 에뮬레이트하는 SAS/SCSI 컨트롤러 드라이버에 요청을 전달합니다.

2. 드라이버는 이를 SAS/SCSI 가상 컨트롤러 자체에 전달합니다.

3. 하이퍼바이저는 이를 가로채 다른 VM의 요청과 결합하고 공통 대기열을 물리적 컨트롤러 드라이버(FC의 경우 HBA, 하드웨어 iSCSI의 경우 또는 NFS 및 소프트웨어 iSCSI의 경우 이더넷 컨트롤러)에 전달합니다.

4. 드라이버가 컨트롤러에 요청을 보냅니다.

5. 컨트롤러는 데이터 네트워크를 통해 이를 스토리지 시스템으로 전송합니다.

6. 스토리지 컨트롤러가 요청을 수락합니다. 이 요청은 일부 LUN 또는 NFS 볼륨의 읽기 또는 쓰기 작업입니다.

7. LUN은 물리적 디스크로 구성된 RAID 어레이의 "가상 파티션"입니다. 즉, 요청이 스토리지 컨트롤러에서 해당 RAID 어레이의 드라이브로 전달됩니다.

디스크 하위 시스템의 병목 현상이 발생할 수 있는 위치:

대부분의 경우 물리적 디스크 수준입니다. RAID 어레이의 물리적 디스크 수는 중요합니다. 그 수가 많을수록 더 나은 읽기-쓰기 작업을 병렬화할 수 있습니다. 또한 I/O 측면에서 디스크 자체는 빠를수록 좋습니다.

RAID 어레이의 레벨에 따라 성능이 다릅니다. 속도 외에도 RAID 유형도 비용과 안정성이 다르기 때문에 완전한 권장 사항을 제공하기 어렵습니다. 그러나 기본 고려 사항은 다음과 같습니다.

RAID-10은 가장 빠르지만 디스크 공간의 효율성은 가장 낮으며 내결함성 지원을 위해 50%를 공제합니다.

RAID-6은 가장 안정적이지만 읽기 성능이 RAID-10만큼 빠르지만 쓰기 성능이 좋지 않습니다(100% 쓰기에서 RAID-10의 30-40%).

RAID-5는 타협입니다. 쓰기 성능은 RAID-6보다 우수하지만(RAID-10보다 나쁨), 스토리지 효율성은 더 높습니다(내결함성을 위해 하나의 디스크 용량만 차지함). 그러나 RAID-5는 현대의 고용량 디스크 및 대규모 RAID 그룹의 경우 디스크 오류 후 긴 데이터 복구와 관련된 심각한 문제를 겪고 있습니다. 이 동안 다른 오류(RAID-0으로 전환)로부터 보호되지 않고 성능;

RAID-0 또는 "제로 내결함성이 있는 RAID"는 의미 있는 데이터를 저장하는 데 사용할 수 없습니다.

스토리지 시스템 설정, 특히 스토리지 컨트롤러 캐시. 스토리지 시스템의 문서를 연구하는 것은 적절한 구성 및 작동을 위해 중요합니다.

데이터 네트워크. 특히 IP 스토리지, iSCSI 또는 NFS를 사용할 계획이라면 더욱 그렇습니다. 나는 그것들을 사용할 필요가 없다고 말하고 싶지 않습니다. 그러한 시스템은 오랫동안 많은 사람들에 의해 악용되었습니다. 내가 말하고 싶은 것은 가상 환경으로 전송되는 부하가 계획된 대역폭으로 충분한 네트워크 대역폭을 가질 수 있는지 확인해야 한다는 것입니다.

디스크 하위 시스템의 결과 속도는 디스크 속도와 컨트롤러의 디스크 액세스 병렬화 알고리즘(RAID 및 유사한 기능의 유형을 의미함)을 따릅니다. 쓰기 작업 수에 대한 읽기 작업 수의 비율도 중요합니다. 이 비율은 통계 또는 VM의 애플리케이션 설명서에서 가져옵니다.

예를 들어 보겠습니다. VM이 최대 1000 IOPS의 로드를 생성한다고 가정해 보겠습니다. 이 중 67%는 읽기이고 33%는 쓰기입니다. RAID-10 및 RAID-5를 사용하는 경우 몇 개의 디스크가 필요합니까?

RAID-10 어레이에서 모든 디스크는 한 번에 읽기 작업에 참여하고 절반만 쓰기 작업에 참여합니다(각 데이터 블록이 한 번에 두 개의 디스크에 기록되기 때문). RAID-5 어레이에서 모든 드라이브는 읽기에 참여하지만 각 블록은 체크섬 계산 및 변경과 관련된 오버헤드로 작성됩니다. RAID-5 어레이에 대한 단일 쓰기는 디스크에 직접 4개의 쓰기가 발생하는 것으로 생각할 수 있습니다.

쓰기 - 1000 x 0.33% = 330 x 2(디스크의 절반만 쓰기에 관련되기 때문에) = 660 IOPS.

전체적으로 디스크에서 1330 IOPS가 필요합니다. 1330을 한 디스크의 성능 특성에 선언된 IOPS로 나누면 지정된 로드에 대해 RAID-10 어레이에서 필요한 디스크 수를 얻습니다.

판독값 - 1000 x 0.67% = 670 IOPS;

쓰기 - 1000 x 0.33% = 330 x 4 = 1320 IOPS.

전체적으로 디스크에서 1990 IOPS가 필요합니다.

제조업체의 문서에 따르면 SAS 15k 하드 드라이브 하나는 150-180 IOPS를 처리합니다. SATA 7.2k 드라이브 1개 - 70-100 IOPS. 그러나 SATA의 경우 50-60, SAS의 경우 100-120과 같이 약간 다른 숫자에 중점을 두는 것이 더 낫다는 의견이 있습니다.

예제를 마치겠습니다.

RAID-10 및 SATA를 사용할 때 22-26개의 디스크가 필요합니다.

RAID-5 및 SAS를 사용할 때 16-19개의 디스크가 필요합니다.

내가 제시한 계산은 매우 근사한 것임이 분명합니다. 스토리지 시스템은 스토리지 시스템의 작동을 최적화하기 위해 주로 캐싱과 같은 다양한 메커니즘을 사용합니다. 그러나 디스크 하위 시스템 크기 조정 프로세스를 이해하기 위한 시작점으로 이 정보가 유용합니다.

그 이면에는 VM에 필요한 IOPS 수와 읽기-쓰기 비율을 얻는 방법이 있습니다. 기존 인프라의 경우(가상 머신으로 마이그레이션할 때) 이 데이터는 VMware 용량 플래너와 같은 특수 정보 수집 도구를 사용하여 얻을 수 있습니다. 계획된 인프라의 경우 - 응용 프로그램 및 사용자 자신의 경험에 대한 문서에서.

컴퓨터의 디스크 및 파일 하위 시스템은 일반적으로 사용자의 특별한 관심 대상이 아닙니다. Winchester는 상당히 신뢰할 수 있는 것으로 일반 사용자의 관심을 전혀 끌지 않고 마치 그 자체로 작동하는 것처럼 작동합니다.

이러한 사용자는 파일 및 폴더 작업의 기본 기술을 마스터함으로써 하드 디스크를 유지 관리하기 위한 추가 도구의 존재에 대해 생각하지 않고 파일 및 폴더를 완전 자동으로 가져옵니다. 디스크 관리가 운영 체제로 완전히 이전되었습니다.

문제는 파일 시스템이 명백한 성능 저하를 보이거나 장애가 시작될 때 시작됩니다. 이 주제를 자세히 연구해야 하는 또 다른 이유는 PC에 동시에 여러 "나사"를 설치하는 것입니다.

복잡한 장치와 마찬가지로 하드 드라이브도 정기적인 유지 관리가 필요합니다. Windows 7은 이러한 문제 중 일부를 처리하지만 자체적으로 모든 문제를 해결할 수는 없습니다. 그렇지 않으면 "브레이크"가 시간이 지남에 따라 보장됩니다.최소한 다음 작업을 수행할 수 있어야 합니다.

  • 쓰레기에서 파일 시스템을 정리하십시오. 쓰레기의 개념에는 임시 파일, 급증한 브라우저 쿠키, 중복 정보 등이 포함됩니다.
  • 하드 드라이브를 조각 모음하십시오. Windows 파일 시스템은 사용자가 전체적으로 보는 것이 실제로는 하드 드라이브의 자기 표면에 흩어져 있는 별도의 파일 조각이 사슬로 결합되어 있는 방식으로 구축되었습니다. 각 이전 조각은 다음 조각을 알고 있습니다. 파일을 전체적으로 읽으려면 이러한 부분을 함께 모아야 하며 이를 위해 표면의 다른 위치에서 많은 읽기 주기를 수행해야 합니다. 녹음할 때도 마찬가지입니다. 조각 모음을 사용하면 이러한 모든 조각을 한 곳에서 수집할 수 있습니다.
  • 섹션 정보를 보고 수정합니다.
  • 숨김 및 시스템 파일 및 폴더에 대한 액세스를 열 수 있습니다.
  • 필요한 경우 한 번에 여러 "나사"로 작업할 수 있습니다.

또한 다른 유용한 작업을 수행합니다. 우리의 메모에서 우리는 이러한 문제의 전체 범위를 논의하지 않고 몇 가지만 다룰 것입니다.

파티션 정보를 읽는 방법?

모르는 사람들을 위해 설명을 드리겠습니다. Windows에는 "스냅"과 같은 것이 있습니다.

일반 exe처럼 실행되는 .msc 실행 파일입니다. 모든 스냅인은 인터페이스가 균일하며 이 운영 체제의 내부 구조를 기반으로 하는 COM 기술을 기반으로 합니다.

디스크 관리 창도 스냅입니다. 다음 그림과 같이 "실행" 창에 이름 diskmgmt.msc를 입력하여 실행할 수 있습니다.

결과적으로 "디스크 관리"라는 제목의 스냅인 자체 창이 나타납니다. 이 애플리케이션은 다음과 같습니다.

이 인터페이스는 직관적이고 간단합니다. 창의 상단 패널에는 다음과 같은 관련 정보가 포함된 "나사"의 모든 볼륨(또는 파티션) 목록이 표시됩니다.

  • 섹션 이름.
  • 섹션 유형.
  • 전체 용량입니다.
  • 상태(섹션마다 상태가 다를 수 있음).
  • 남은 여유 공간은 기가바이트 및 전체 백분율로 표시됩니다.

기타 정보입니다. 하단 패널에는 드라이브 및 파티션 목록이 있습니다. 여기에서 볼륨 및 드라이브 작업을 수행할 수 있습니다. 이렇게 하려면 볼륨 이름을 마우스 오른쪽 버튼으로 클릭하고 "작업" 하위 메뉴에서 특정 작업을 선택합니다.

인터페이스의 주요 장점은 모든 것이 여기에 모여 있다는 것입니다. 계획을 수행하기 위해 다른 메뉴와 창을 헤매지 않아도 됩니다.

볼륨 작업

파티션을 사용하여 일부 명확하지 않은 작업을 분석해 보겠습니다. 먼저 MBR 형식에서 GPT 형식으로의 전환에 대해 논의하겠습니다. 이 두 형식은 서로 다른 부트로더 유형에 해당합니다. MBR은 고전적이지만 이제는 더 이상 사용되지 않는 부트로더 형식입니다.

볼륨 볼륨(2TB 이하)과 볼륨 수 모두에 명시적인 제한이 있습니다. 4개 이하가 지원됩니다. 볼륨과 섹션을 혼동하지 마십시오. 이들은 서로 다소 다른 개념입니다. 인터넷에서 그들의 차이점에 대해 읽으십시오. GPT 형식은 GUID 기술을 기반으로 하며 이러한 제한이 없습니다.

따라서 대용량 디스크가 있는 경우 자유롭게 MBR을 GPT로 변환하십시오. 사실, 이 경우 디스크의 모든 데이터가 파괴됩니다. 다른 위치로 복사해야 합니다.

가상화 기술은 모든 곳에 침투했습니다. 파일 시스템도 우회하지 않았습니다. 원하는 경우 소위 "가상 디스크"를 만들고 탑재할 수 있습니다.

이러한 "장치"는 일반 .vhd 파일이며 읽기 및 쓰기 모두에 대해 일반 물리적 장치로 사용할 수 있습니다.

이것은 정보 목록화를 위한 추가적인 기회를 열어줍니다. 이것으로 우리의 이야기를 마칩니다. Windows 7의 디스크 관리는 상당히 광범위한 주제이며, 그것에 몰두하면 많은 새로운 것을 발견할 수 있습니다.

공유하다