2) И учёные не идиоты, они давно уже поняли, что надо что-то с этим делать.
Как всё это соотносится с ИТ-иконой современности – большими языковыми моделями (БЯМ)? Как известно, БЯМ работают на компуктерах, способных быстро и точно выполнять просто структурированные операции, в результате чего БЯМ может кардинально быстрее человека составить некую выходную последовательность токенов, вероятностно соответствующую последовательности, поданной ей на вход (запросу или «промпту» и релевантному контексту). Это значит, что БЯМ может очень быстро составлять утверждения. Контекстом может быть произвольно большой набор других утверждений и синтаксис, в котором БЯМ должна представить выходное утверждение (т.е. язык).
Известной проблемой БЯМ является непрогнозируемое галлюцинирование, т.е. выдача ответов, не имеющих смысла, семантически неадекватных. Но если утверждение составляется на формальном языке, например на Lean, инструменты которого предполагают возможность быстрой автоматической постобработки того, что составила БЯМ, то галлюцинация не пролезет. Она будет сразу же отбракована, т.к. глючное утверждение будет признано «непоследовательным». Результаты неудовлетворительной постобработки затем могут быть добавлены к вводной последовательности (автоматическая корректировка запроса), после чего БЯМ опять попробует составить корректное, по мнению Lean, утверждение.
Таким образом, банальным перебором с обратной связью и автоматической верификацией может быть организовано получение нового утверждения (новой теоремы), гарантированно корректно следующего из всей релевантной совокупности знаний человечества (естественно, из той части, что была оцифрована в формальном синтаксисе). Причём это не просто гипотеза – такие задачи уже решались с помощью DeepSeek и DeepMind, правда, они передоказывали то, что уже было доказано ранее. Но я знаю и о примере решения с помощью описанного тут подхода открытой проблемы математики, существовавшей много лет. Причём объём утверждений, из которого в итоге следует решение указанной проблемы, составляет более 100 тыс. строк формального языка, даже притом, что некоторые весьма объёмные глубокие теоремы, которые ещё не оцифрованы, были введены в качестве аксиом. Для того чтобы проделать всю эту работу без помощи БЯМ и формализма доказательной математики, учёному потребовалась бы голова, что Дом Советов, и лет 10 кропотливой работы без гарантии результата и с огромной вероятностью ошибиться.