У понятия «число» существует много определений. Первое научное понятие было дано Эвклидом, а первоначальное представление о числах появилось еще в эпоху каменного века, когда люди стали переходить от простого сбора пищи к ее производству. Числовые термины зарождались очень тяжело и также очень медленно входили в употребление. Древний человек был далек от абстрактного мышления, он придумал только пару понятий: «один» и «два», другие количества были для него неопределенными и обозначались одним словом «много». При росте производства пищи добавлялись объекты, которые надо было учитывать, поэтому появились и «три», и «четыре». Число «семь» долгое время считалось пределом познания. Так появились первые числа, которые сейчас называются натуральными и служат для характеристики количества предметов и порядка предметов, размещенных в ряд. В основе любого измерения лежит какая-либо величина (объем, длина, вес и т.д.). Потребность в точных измерениях привела к дроблению начальных единиц меры. Сперва их дробили на 2, 3 и более частей. Так возникли первые конкретные дроби. Гораздо позже названиями конкретных дробей стали обозначать и абстрактные дроби. Развитие торговли, промышленности, техники, науки требовало все более громоздких вычислений, легче выполняемых при помощи десятичных дробей. Десятичные дроби широкое распространение получили в XIX столетии, после того, как была введена метрическая система мер и весов. Современная наука встречается с величинами такой сложности, что для их изучения требуется изобретение новых чисел, при введении которых необходимо соблюдать следующее правило: «действия над ними должны быть полностью определены и не вести к противоречиям». Новые системы чисел необходимы для решения новых задач или для усовершенствования уже известных решений. Сейчас существует семь общепринятых уровней обобщения чисел: натуральные, действительные, рациональные, векторные, комплексные, матричные, трансфинитные. Отдельные ученые предлагают расширить степень обобщения чисел до 12 уровней.