Dnia 2005-04-07 21:34 zdekodowano przekaz od: 'Bernard':
> Andrea wrote:
>
>>>>> Pytanie trochę nieściśle zadane.
>>>>> Dzisiaj za bajt przyjmuje się osiem bitów. Jednak nie jest to regułą.
>>>>
>>>>
>>>>
>>>> Jest. Inną wartość może przyjąć słowo.
>>>
>>>
>>> Jest standardem od 1964r. Wprowadził go IBM. Wcześniej bajt
>>> niekoniecznie musiał
>>> mieć 8 bitów.
>
>
> Nie jest żadnym "standardem". Jest zwyczajem, dość rozsądnym i wygodnym.
Kwestia tego, czy standard jest efektem zwyczaju czy narzuconej normy jest
mało istotna. Faktem jest, że z innym bajtem raczej się nie spotkasz - więc
jest standardem.
>> Z wypowiedzi wynikało, że również dziś może przyjąć inną wartość,
>> podczas gdy nie może. Ale fakt, kiedyś niekoniecznie tak musiało być.
>
>
> Oczywiście że może. Nawet dzisiaj są maszyny z bajtem 16-bitowym. Odra
> 1300 miała 6-bitowe bajty, inne maszyny lat 70-tych - 6, 7, 8, 9, 10, 12
> lub 13 bitów.
Po pierwsze to te maszyby pracowały ze słowem o tej długości, nie bajtem.
Po drugie, to pracujące relikty. Eniac pracował w systemie dziesiętnym - ale
jaki ma to wpływ na dzisiejsze maszyny?
>
> W standardzie ANSI C jest stała CHAR_BITS, zdefiniowana dla każdego
> środowiska. Jak myślisz po co?
Nie jestem programistą, ale zdaje się że CHAR_BITS to definicja długości
słowa danego środowiska, nie bajtu.
-- Andrea | ASRock K7Upgrade-880, AMD Sempron 2800+, Pentagram QC-80Cu 2*256MB GoodRAM PC3200, Sapphire Radeon 9600 128MB, LG Flatron ez T710PH IBM-DTLA-307030 30 GB, Seagate 340810A 40 GB, LG GCE-8520B, LG GDR-8162B ModeCom ATX-350GTF WPFC 350, AVerMedia AverTV 303, SB Live! + 4 SpeakersReceived on Thu Apr 7 22:00:28 2005
To archiwum zostało wygenerowane przez hypermail 2.1.8 : Thu 07 Apr 2005 - 22:51:12 MET DST