임베디드 프로그래밍에 대한 자습서를 읽었으며 그 중 하나는 int
과 signed int
이 다르다고 설명했지만 방법이나 이유는 설명하지 않았습니다.int와 signed int 선언의 차이점
unsigned int
과 int
이 다른 이유는 무엇입니까? int
과 signed int
이 다른 이유는 저에게 새로운 것입니다.
임베디드 프로그래밍에 대한 자습서를 읽었으며 그 중 하나는 int
과 signed int
이 다르다고 설명했지만 방법이나 이유는 설명하지 않았습니다.int와 signed int 선언의 차이점
unsigned int
과 int
이 다른 이유는 무엇입니까? int
과 signed int
이 다른 이유는 저에게 새로운 것입니다.
역사적인 이유로 만 제공됩니다. 오늘 int
을 신고 할 때마다 signed int
이됩니다. 현재 컴파일러에서도 차이점을 볼 수있는 유일한 점은 대 signed char
인데 사양에 따라 다르며 (리터럴 문자열을 지정할 때 주목할 만하지만) int
으로는 다릅니다.
내가 아는 한 차이는 char 데이터 형식에만 존재합니다. 여기서 char a;
은 컴파일러 옵션에 따라 signed char a;
또는 unsigned char a;
이 될 수 있습니다. this article은 말합니다. (--signed_chars) int 데이터 형식의 경우 int
과 signed int
사이에는 차이가 없습니다.
저도 새로 왔습니다. 튜토리얼을 온라인으로 말 했나요? 그렇다면, 링크를 많이 주시면 감사하겠습니다. –