영어는 1바이트임에 반해 한글은 2바이트는 무슨 이유때문인가요?

유니코드와 UTF에 대해서 찾아보다보니 영어는 용량이 한 글자당 1바이트이고 한글은 2바이트라고 하더라고요. 왜 영어의 경우는 한글보다 작은 용량인 1바이트인데 한글은 그보다 더 큰 용량을 필요로 하는 것인지 궁금합니다.

3개의 답변이 있어요!

  • 1 바이트는 256개의 데이터를 표현할 수 있습니다. 영어는 a~z, A~Z, 숫자, 특수기호를 모두 합해도 256개를 넘지 않습니다. 한글의 경우 모든 글자를 표시하기 위해서는 256개를 남기 때문에 1 바이트로 표현되지 않고 2 바이트로 표현됩니다.

  • 영어는 A라는 단어는 하나당 1바이트로 사용하지만 한글은 "한" 은 ㅎ과 ㅏ과 ㄴ이 조합된 구조로 되어 있어서 이는 각각 1바이트씩 2바이트 3바이트가 필요합니다. 이를 유니코드로 코딩하면서 한글을 2바이트로 표현할 수 있게 만들었기 때문입니다.

  • 컴퓨터에 사용되는 표준으로 ASCII 코드가 자리를 잡았습니다.

    표준코드를 제정할 때 보통 컴퓨터는 한번에 8개의 비트를 처리를 할 수 있었고

    8개의 비트를 가지고 문자를 만들다 보니 총 256개의 조합이 만들어졌습니다.

    영어 알파벳은 26자 밖에 안되서 그 외 각종 특수 기호들이 ASCII코드라는 것 안에 들어갔습니다.

    1Byte는 8Bit 이고, ASCII코드의 한 종류인 알파벳이 1Byte문자가 된 것 입니다.

    한글은 자음 ㄱㄴㄷㄹ 과같은 자음 14개와 ㅏㅑㅓㅕ와 같은 모음 10개로 이루어집니다.

    자음과 모음이 합쳐서 24개밖에 안되지만, 한글은 모음과 자음의 조합으로 이루어지기에 수만개 이상의 문자조합을 만들 수 있습니다.

    그리고 그 조합은 초성과 중성, 종성으로 이루어 집니다. "말" 이라는 글자를 보면초성인 "ㅁ"과 중성인"ㅏ" 그리고 종성인"ㄹ"로 이루어집니다.

    이러한 초중종성의 과학적인 한글의 표현법은 최대 256개까지밖에 저장이 안되는

    1Byte ASCII방식으로는 처리가 불가능 합니다. 그래서 최대 65536까지 저장이 가능

    한 2Byte(256*256=65536) 방식을 취하게 된 것입니다.