Bit (w ang. kawałek, skrót od binary digit, czyli cyfra dwójkowa) – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ. Jednostka logiczna. Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci komputerowej, składająca się z bitów. Kilobajt (KB, rzadziej kB, ang. Kbyte, kbyte, kilobyte ) – jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. W przeciwieństwie do innych dziedzin nauki, w informatyce przedrostek kilo oznacza nie krotność 103, tylko 210: 1 KB = 210 = 1024 B (bajty) Gigabajt (109, skrót GB) lub Gibibajt (230, skrót GiB) – jednostka używana w informatyce oznaczająca miliard (a w praktyce częściej 1.073.741.824 ~ 1.000.000.000 = 109) bajtów. Terabajt (skrót TB), Tebibajt (skrót TiB) – jednostka używana w informatyce oznaczająca bilion (dokładniej 1 099 511 627 776) ~ 1 000 000 000 000 = 1012) bajtów. ps. mam nadzieje, że pomogłam ;)
BIT- najmniejsza ilość informacji potrzebna do określenia. BAJT - najmniejsza jednostka informacji pamięci komputerowej, składająca się z bitów. KILOBAJT- jednostka używana w informatyce do określenia ilości informacji lub wielkości pamięci. GIGABAJT- jednostka używana w informatyce oznaczająca miliard bajtów. TERABAJT- jednostka używana w informatyce oznaczająca bilion bajtów
bit - najmniejsza ilość informacji potrzebna do określania, który z dwóch równie prawdopodobnych stanów przyjął układ.Jednostka logiczna bajt - jednostka służąca do mierzenia ilości informacji. kilobajt - 1024 bajtów. Zwykle podawany w skrócie jak 1 KB. gigabajt - jednostka używana w informatyce oznaczająca miliard bajtów. terabajt - jednostka używana w informatyce oznaczająca bilion bajtów. Mam nadzieję że dobrze ;)