в пределе можно попробывать )
В математике деление на ноль это деление, при котором знаменатель равен нулю. Такое деление может быть формально записано а / 0, где а — это числитель.
В обычной арифметике (с вещественными числами) данное выражение не имеет смысла, так как нет числа, которое, умноженное на 0 дает а (а ≠ 0), и поэтому деление на ноль не определено. Исторически одна из первых ссылок на математическую невозможность присвоения значения а / 0 содержится в критике Джорджа Беркли исчисления бесконечно малых.
В программировании попытка разделить число с плавающей точкой на ноль приведет к +INF / -INF (Стандарт IEEE 754), однако, в зависимости от языка программирования и типа данных числа (например, целое число) , которое делят на ноль, может: сгенерировать исключение, сообщение об ошибке, остановку выполняемой программы, сгенерировать положительную или отрицательную бесконечность, или может привести к специальному нечисловому значению (NaN).