Як вимірюється швидкість комп'ютера?

Автор: Clyde Lopez
Дата Створення: 25 Серпень 2021
Дата Оновлення: 11 Листопад 2024
Anonim
Як вимірюється швидкість комп'ютера? - Статті
Як вимірюється швидкість комп'ютера? - Статті

Зміст


Процесор - це "мозок" комп'ютера (Sean Gallup / Getty Images / Getty Images)

Герц (МГц, ГГц)

Одиниця герц (Гц) - це кількість циклів в секунду, що становить 1 мегагерц (МГц) мільйон циклів в секунду, а 1 гігагерц - 10 9 (1 мільярд) герц. Електромагнітні коливання і випромінювання вимірюються в одиницях герц, але при обчисленні це швидкість обробки центрального процесора (ЦП), на яку посилаються в термінах герц.

CPU

У більш широкій термінології процесор або процесор є елементом комп'ютера, який виконує прийняте програмування. Процесор, як правило, являє собою інтегральну схему, яка називається мікропроцесором, який виконує функції пошуку, декодування, виконання і перезапису (надаючи додаткові інструкції). Цей процес є циклом, виміряним в термінах швидкості комп'ютерної обробки.

Швидкість обробки

Кришталевий генератор, вібраційний металевий кристал, який є ще однією схемою комп'ютера, забезпечує сигнал (тактовий сигнал), який визначає швидкість обробки комп'ютера (або швидкості), тобто швидкість, з якою процесор цикл. Таким чином, 1 ГГц процесор завершує 1 мільярд циклів в секунду (виконання 1 млрд. Програмних інструкцій). У обчислювальних системах дуже важливо, щоб цей сигнал залишався постійним.


Порівняння

Через відмінності в способах, в яких різні машини і процесори виконують операції, не завжди можливо повідомити випадковому користувачеві швидкість того, що конкретна машина і модель процесора будуть виконувати завдання швидше, ніж інша модель. Це означає, що використання швидкості обробки (вимірювання в Гц) системи не завжди вказує, наскільки швидко система виконає завдання по відношенню до інших систем.