В целом основной вопрос звучит следующим образом:
Есть алгоритм вычислений (математическая модель), есть программа на ЭВМ, которая является реализацией модели. Также есть сведения о микроархитектуре этой ЭВМ (о представлении чисел, реализации алгоритмов арифметических действий).
Вопрос: Есть ли научный раздел (метод, аппарат), позволяющий, проанализировав программу на языке высокого уровня, сказать с какой точностью будет получен конечный результат компьютерных вычислений. Сам вопрос о точности обусловлен ошибками округления, неизбежно возникающими при работе с Float-числами.
Параллельно у меня есть связанные с предыдущим вопросы, на которые тоже ищу ответы, но практически безрезультатно, а значит - не там )).
1. Есть функция, вычисление точных значений которой "в лоб" вручную весьма трудоёмкое (специальные функции, к примеру) или вообще невозможно (Erf-функция) . Есть выражения для приближенных значений этой функции и я могу провести вычисления на бумаге (разложение в ряд, не обязательно Фурье).
Вопрос: Есть ли готовый аппарат, позволяющий оценивать погрешность, вносимую использованием приближения. При этом можно ли оценить эту погрешность, не прибегая к ЭВМ.
2. Наверняка есть литература по информационным дисциплинам, в которой подробно рассматриваются ошибки округления, возникающие в ходе элементарных (арифметических и присваивания между различными типами) действий, инструкций. Что почитать?
И вопрос из разряда фантастики.
Есть ли аппарат, позволяющий для решения хотя бы небольшого круга некоторых задач перейти к решению задачи лишь на множестве целых чисел?
Я, конечно, осознаю тематику, и сейчас много копаю по специализированным форумам. Но здесь, в Тавроклубе, я почерпнул полезной инфы гораздо больше, чем во всем остальном Рунете вместе взятом.