Часть 1 Часть 2 Часть 3 Часть 4 Часть 5
Представления о природе материи в физике элементарных частиц и в творениях святых отцов
Эволюция научных представлений о элементарных частицах в XX–XXI веке
Становление квантовой механики
Решение вопроса было предложено в 1905 году малоизвестным тогда сотрудником швейцарского патентного бюро Альбертом Эйнштейном. Эйнштейн пришел к объяснению парадокса Планка, пытаясь решить проблему, известную под названием фотоэлектронной эмиссии (фотоэффекта)[2].
В качестве объяснения фотоэффекта Эйнштейн решил распространить планковскую дискретную модель на новое определение света. Согласно Эйнштейну, световой луч должен рассматриваться не только как волна электромагнитного излучения, но и как поток микроскопических частиц света, названных в 1926 году Гильбертом Льюисом фотонами. Эйнштейн предположил, что электрон вырывается с поверхности металла, если с ним столкнется фотон, обладающий достаточным количеством энергии. Энергия же каждого отдельного фотона, согласно предположению Эйнштейна, обратно пропорциональна длине световой волны. Опытным путем был измерен коэффициент, связывающий энергию фотона и длину волны. Этот коэффициент был назван постоянной Планка. Экспериментальными данными было полностью подтверждено, что цвет (длина световой волны) определяет скорость вылетающих электронов, а суммарная интенсивность света (яркость) определяет количество вылетевших электронов. Таким образом, Эйнштейн подтвердил гипотезу Планка о дискретности энергии, замеченной Планком при исследовании нагревания абсолютно черного тела. Важный вывод, который сделал Эйнштейн: электромагнитная волна состоит из частиц – фотонов, которые представляют собой маленькие порции, или кванты, света. Дискретность энергии связана с тем, что волна состоит из дискретных же объектов.
На самом деле Эйнштейн не высказал ничего нового. Корпускулярная теория света была выдвинута еще Исааком Ньютоном. Но вместе с тем некоторые опыты демонстрировали волновую природу света. Томас Юнг доказал волновую природу света на примере наблюдения картины интерференции. Интерференционная картина в опытах Юнга образовывалась посредством прохождения световой волны через две щели экрана. Наложение одновременно существующих двух новых источников волны и создает интерференционную картину. Но удивительным в этих опытах является то, что если интенсивность источника уменьшить вплоть до такого значения, когда в сторону преграды с двумя щелями один за другим будут излучаться одиночные фотоны с достаточно большой периодичностью, то на находящейся за щелевым экраном фотопластинке возникнет все та же интерференционная картина (правда, для этого придется потратить значительное время). Логика подсказывает, что фотон должен проходить либо через одну, либо через другую щель, и результирующая картина никак не должна отображать эффект интерференции. Эти эксперименты показали, что частицы света Эйнштейна довольно существенно отличаются от частиц Ньютона. Итак, фотоэффект показывает, что свет имеет свойства частиц, а эксперимент Юнга демонстрирует, что свет проявляет свойства волны. Этот парадокс называется «корпускулярно-волновой дуализм». Эйнштейн, прекрасно осознавая создавшееся внутреннее противоречие, тем не менее, принял его, предполагая, что оно может быть понято позднее благодаря совершенно новому методу мышления.
В 1911 году Эрнест Резерфорд на основании наблюдений прохождения α-лучей через вещество предложил свою знаменитую модель атома. Атом в этой модели состоит из атомного ядра, положительно заряженного, и электронов, которые движутся вокруг ядра, подобно тому, как планеты движутся вокруг Солнца. Но эта модель не могла объяснить устойчивость атома при столкновении с другими атомами, а ведь именно устойчивостью объясняются химические свойства вещества. Объяснение этой необычной устойчивости было дано в 1913 году Нильсом Бором путем применения квантовой гипотезы Планка к модели Резерфорда. Это означало, что атом существует лишь в дискретных стационарных состояниях, низшее из которых есть нормальное состояние атома. Теория Бора качественно объяснила химические свойства атомов и их линейные спектры. Концепция Бора потребовала отказа от применения классической механики и электродинамики в микромире и знаменовала собой громадный прогресс в понимании природы вещества и излучения.
Исходя из своей модели атома, Бор показал, что по мере удаления от ядра разрешенные уровни все меньше отличаются друг от друга и в конечном счете сливаются. Квантовые скачки делаются все меньше, и переход из одного стационарного состояния в другое становится практически непрерывным. Тем самым, электрон из власти квантовых законов постепенно поступает в распоряжение классической физики. Эта идея лежит в основе сформулированного Бором принципа соответствия.
Теория Бора открыла новую область исследований. Появилась масса новых вопросов[3], в поиске ответа на которые все стали понимать, что попытка описать атомные процессы в понятиях обычной физики приводит к противоречиям.
Представления об атоме как о системе, состоящей из ядра и вращающихся вокруг него электронов, которые обладают определенной массой, движутся с определенной скоростью по определенной траектории, следовало понимать как аналогию для установления соответствующей математической модели. При этом особую роль играл принцип соответствия как принцип аналогии между классическим и квантовым рассмотрениями. Указанный метод стал развивать Вернер Гейзенберг. Теория атомных явлений, согласно Гейзенбергу, должна ограничиваться установлением соотношений между величинами, которые непосредственно измеряются в экспериментальных исследованиях, – частотой излучения спектральных линий, их интенсивностью, поляризацией и т.п. Координата электрона, его скорость, траектория, по которой он движется не должны использоваться в теории атома. Однако, в согласии с принципом соответствия, новая теория должна определенным образом соответствовать классическим теориям: каждой классической величине нужно найти соответствующую ей квантовую величину. Заменяя в уравнениях движения определенные классические величины их квантовыми аналогами, Гейзенберг получил уравнения, позволяющие определять значения излучаемых частот и интенсивности. В 1925 году Макс Борн и Паскуаль Иордан придали идеям Гейзенберга более строгую математическую форму. Они показали, что те величины, которые Гейзенберг поставил в соответствие классическим величинам, являются матрицами, и с математической точки зрения переход от классической теории к квантовой механике заключается в замене обычных величин и действий над ними матрицами и соответствующими действиями над ними. Основными являлись матрица координат и матрица импульса. Из них можно образовать матрицы других физических величин.
Другое направление в развитии теории атома начало развиваться в работах французского физика Луи де Бройля. В них была высказана идея о волновой природе материальных частиц. Де Бройль попытался распространить дуализм волнового и корпускулярного описания фотона на элементарные частицы материи, в частности на электроны. Он показал, что движению электрона может соответствовать некоторая волна материи, так же как движению светового кванта соответствует световая волна. Эйнштейновское уравнение E = mc2 связывает массу с энергией, а в опытах Планка и объяснении Эйнштейном фотоэффекта энергия фотона связана также с длиной волны. Де Бройль допустил, что масса также может быть связана с длиной волны. То есть не только фотон, но и электрон может иметь волновое описание, в дополнение к тому, что он имеет корпускулярное описание.
Идеи де Бройля оказали особо сильное влияние на австрийского физика Эрвина Шредингера. В 1926 году последовали работы Шредингера, в которых он, развивая идеи де Бройля, построил так называемую волновую механику. Шредингер приходит к мысли, что механические процессы следует понимать или изображать как некие волновые процессы. Тогда образ материальной точки, занимающей, например, определенное место в пространстве, строго говоря, является приближенным.
Шредингер поставил вопрос о связи своей теории с теорией Гейзенберга, Борна и Иордана и пришел к выводу, что, несмотря на то, что обе теории основываются на совершенно разных принципах, между ними должно существовать связующее звено. Шредингер действительно обнаружил, что все матрицы, вычисление которых являлось задачей квантовой механики Гейзенберга, имеют решение с помощью волновых уравнений Шредингера. Однако волновая интерпретация Шредингера встретила ряд трудностей. Например, как интерпретировать с точки зрения волновой функции существование электрона как частицы? Шредингер предположил, что волны представляют собой «размазанные» электроны. Это предположение отчасти улавливало «сущность» электронной волны, но не обладало наглядностью: никому и никогда не приходилось иметь дело с половиной или какой-либо частью электрона – он или «здесь» целиком, или его «здесь» нет вообще. Существенное дополнение в интерпретацию электрона как волны внес в 1926 году Макс Борн. Согласно этому уточнению, электронная волна должна интерпретироваться с точки зрения вероятности. В тех областях, где квадрат амплитуды волны больше, обнаружение электрона более вероятно; в местах, где амплитуда мала, вероятность обнаружить электрон меньше[4].
Волновая механика Шредингера и матричная механика с учетом замечаний Гейзенберга и Борна дали общую основу для описания квантовых явлений. Обе этих механики известны под именем квантовой механики.
Несмотря на уточнения Борна, выяснение статистического характера волновой функции еще не решало всех методологических вопросов квантовой механики. Квантовая механика в истории науки и философии науки XX века была подвергнута интерпретации. Основоположниками так называемой копенгагенской интерпретации были Гейзенберг и Бор. Необходимость подвергнуть теорию физической интерпретации была продиктована тем, что при построении квантовой теории в форме матричной механики Гейзенберг вообще отказался от каких-либо наглядных представлений и рассматривал свою теорию как некий формальный аппарат. Однако, ознакомившись с работами Шредингера, он пришел к выводу, что в новую теорию нужно вложить определенное наглядное физическое содержание. Так же как Эйнштейн при построении теории относительности, анализируя понятия пространства и времени, исходил из операции измерения, так и при интерпретации квантовой механики нужно провести анализ основных понятий механики, исходя из рассмотрения операции измерения. Чтобы определить смысл слова «координата», нужно указать эксперимент, с помощью которого мы предполагаем ее измерять. То же относится и к другим физическим понятиям и величинам – они определяются операцией измерения.
Формальный аппарат новой механики должен был иметь какое-то физическое толкование, что, в свою очередь, требовало процедуры измерения. Анализируя возможности измерения в квантовой механике, Гейзенберг приходит к важному принципиальному результату о невозможности одновременного точного измерения двух сопряженных величин – координаты частицы и ее импульса. Оказалось, что произведение этих обеих неопределенностей не может быть меньше постоянной Планка, деленной на массу частицы, о которой в данном случае шла речь. Это математическое соотношение известно как принцип неопределенности. Введенный Гейзенбергом, принцип неопределенности является одним из узловых принципов квантовой механики. Суть принципа неопределенности заключается в следующем. В механике Ньютона движущаяся частица описывается ее положением в системе координат и скоростью. Направляя на исследуемый электрон пучок света для определения этих величин, мы должны учитывать, что фотон соразмерен исследуемому электрону, а потому сам пучок света, состоящий из фотонов, непременно будет оказывать влияние на результаты. Для повышения точности местоположения электрона мы должны будем увеличивать частоту световой волны, а, согласно наблюдениям Эйнштейна, чем выше частота волны, тем большую энергию она несет и, следовательно, тем существеннее будет меняться второй нужный нам параметр – скорость. При уменьшении частоты световой волны, с целью минимизировать энергетическое воздействие фотонов на электрон, возрастает погрешность в определении местоположения электрона, так как при этом фотон будет давать точность, равную длине волны, которая с уменьшением частоты увеличивается. Гейзенберг выразил все это в виде математического соотношения между точностью измерения положения электрона и точностью определения его скорости. Он установил, что эти величины обратно пропорциональны друг другу: большая точность в определении положения неизбежно ведет к большей погрешности в определении скорости, и наоборот.
Бор, размышляя над интерпретацией квантовой механики, пришел к более общим идеям, положенным в основу выдвинутого им принципа дополнительности, который включал в себя и принцип неопределенности Гейзенберга. Основываясь на корпускулярно-волновом дуализме как света, так и материи, Бор пришел к выводу, что сам микрообъект не является ни волной, ни частицей в обычном понимании. Свойства волны или частицы объект приобретает в связи с необходимостью описания этого микрообъекта в классических понятиях. Таким образом, суть принципа дополнительности заключается в том, что волновой и корпускулярный характеры вещества и излучения представляют собой два взаимодополняющих компонента понимания природы, они дополняют друг друга. В различных экспериментах проявляется либо волновое, либо корпускулярное поведение, но смешанное поведение не наблюдается никогда.
Копенгагенская интерпретация выдержала испытание на Сольвеевском конгрессе в Брюсселе осенью 1927 года. Копенгагенскую интерпретацию приняли Бор, Гейзенберг, Поль Дирак и Вольфганг Паули. Против выступили Лоренц, Эйнштейн и Шредингер. Сторонники интерпретации утверждали необходимость отказа от причинности в элементарных процессах. Гейзенберг, отстаивая точку зрения об индетерминированности атомных процессов, говорил: «После того как произошло взаимодействие, даже в том случае, если речь идет о “чистом случае”, функция вероятности будет содержать объективный элемент тенденции или возможности и субъективный элемент неполного знания. Именно по этой причине результат наблюдения в целом не может быть точно предсказан. Предсказывается только вероятность определенного результата наблюдения, и это утверждение о вероятности может быть проверено многократным повторением эксперимента. Функция вероятности, в отличие от математической схемы механики Ньютона, описывает не определенное событие, а, по крайней мере, в процессе наблюдения, всю совокупность (ансамбль) возможных событий. Само наблюдение прерывным образом изменит функцию вероятности: оно выбирает из всех возможных событий то, которое фактически совершилось»[5].
Необходимо отметить один существенный вывод, который следует из соотношения неопределенности Гейзенберга. По мере приближения к микроскопическим масштабам жизнь Вселенной становится все более хаотичной. Брайан Грин описывает этот хаос как постоянное превращение энергии в материю, и наоборот: «Хаотический перенос энергии и импульса непрерывно происходит во Вселенной на микроскопических расстояниях и в микроскопическом временном масштабе. Согласно соотношению неопределенностей, даже в пустых областях пространства (например, в пустой коробке) энергия и импульс являются неопределенными: они флуктуируют[6] между крайними значениями, которые возрастают по мере уменьшения размеров коробки и временного масштаба, на котором проводятся измерения. Это выглядит так, как если бы область пространства внутри коробки являлась маниакальным “заемщиком” энергии и импульса, непрерывно беря “в долг” у Вселенной и неизменно “возвращая долг”. Но что участвует в этих обменах, например, в пустойобласти пространства? Все. В буквальном смысле слова. <…> Например, если флуктуации энергии достаточно велики, они могут привести к мгновенному возникновению электрона и соответствующей ему античастицы – позитрона, даже в области, которая первоначально была пустой! Поскольку энергия должна быть быстро возвращена, данные частицы должны спустя мгновение аннигилировать, высвободив энергию, заимствованную при их создании. То же самое справедливо для всех других форм, которые могут принимать энергию и импульс – при рождении и аннигиляции других частиц, сильных колебаниях интенсивности электромагнитного поля, флуктуациях полей сильного и слабого взаимодействий. Квантово-механическая неопределенность говорит нам, что в микроскопическом масштабе Вселенная является ареной, изобилующей бурными и хаотическими событиями»[7].
Квантовая механика в копенгагенской интерпретации совершает революционный переворот в наших представлениях о материи. Представление о незыблемости материи, сложившееся на основе повседневного опыта, уступает место неустойчивому миру квантов энергии.
Создание квантовой электродинамики. Перенормировка
На протяжении 1930-х и 1940-х годов такие физики, как Поль Дирак, Вольфганг Паули, Юлиан Швингер, Син-Итиро Томонага и Ричард Фейнман, пытались разработать математический аппарат, который смог бы описать поведение микромира. Они установили, что квантовое волновое уравнение Шредингера на самом деле дает только приближенное описание физики микромира. Шредингер пренебрег в своей формулировке специальной теорией относительности (СТО). Вернее, первая его попытка включала в себя уравнение Эйнштейна, потому что скорости электронов были выбраны близкими к скорости света, а это допущение, в свою очередь, влекло за собой непременное и существенное увеличение массы электрона. Во второй попытке Шредингер предположил малые скорости электрона, и необходимость в привлечении специальной теории относительности отпала сама собой.
Но допущение Шредингера, не включавшее в волновом уравнении СТО, не давало описания хаотическим явлениям микромира, где энергия может проявлять себя различными способами. Игнорируя СТО, подход Шредингера не учитывал взаимопревращаемость материи, энергии и движения. Стало очевидным, что СТО крайне важна для корректной формулировки законов квантовой механики.
Между тем, попытка приложения идей СТО к квантовой механике обнаруживала непреодолимые противоречия. Непосредственное совмещение квантовой механики и СТО в едином формализме приводит к проблеме расходимости – бесконечных результатов для экспериментально проверяемых величин[8].
Для решения этой проблемы используется идея перенормировки величин. Суть перенормировки заключается в следующем.
Сводя размеры электрона к нулю и тем самым возводя его энергию и массу к бесконечности, мы должны учесть, что и энергия окружающего электрон электрического поля также растет до бесконечности. Но электрон без электрического поля не существует. Такой абстрактный электрон, без поля, в литературе иногда называют «голый» электрон. Но наблюдая электрон, мы воспринимаем его в целом как сумму этих параметров. Наблюдаемая масса электрона все-таки конечна. Это позволяет сделать вывод о том, что обе бесконечности компенсируют друг друга таким образом, что наблюдаемый остаток и есть физически наблюдаемые параметры частицы. Таким образом, бесконечности не проявляются в наблюдаемых величинах. А раз не проявляются, то их можно просто игнорировать. Для этого теоретик просто смещает, или перенормирует, нулевую точку на шкале измерения масс, сдвигая ее на бесконечно большую величину. В какой-то степени это похоже на договоренность отсчитывать высоту полета самолета не от уровня моря, а от уровня земной поверхности, только в этом случае расстояние между уровнем моря и вновь взятым уровнем земной поверхности имеет бесконечную величину. Аналогия такая, что сведение размеров электрона к точке (что и является причиной расходимости) в случае с самолетом равносильно «отодвиганию» уровня моря от наблюдаемого с борта самолета уровня земной поверхности на бесконечное расстояние «вниз». Нам, в сущности, уже безразлично, в какую бесконечность «отодвигается» море – самолет летит над землей, моря не видно, а пилот оперирует в случае взлета и посадки с земной поверхностью, и насколько высоко находится взлетная полоса над уровнем моря – совершенно не актуально. Таким образом, при перенормировке вопрос о причине расходимостей не решается, а как бы отодвигается в сторону.
Перенормировка как метод была использована в построении квантовой электродинамики (далее КЭД)[9].
Впоследствии квантовая электродинамика получила название релятивистской квантовой теории поля, или, кратко, квантовой теории поля. Такая теория является квантовой, поскольку она с самого начала строилась с использованием понятий вероятности и неопределенности; она является теорией поля, поскольку объединяет понятия квантовой механики и существовавшее классическое представление о максвелловском электромагнитном поле; эта теория является релятивистской, поскольку с самого начала учитывает СТО. Физики назвали КЭД перенормируемой теорией. Вообще, все квантовые релятивистские теории разделились на два класса: те, в которых конечное число перенормировок устраняет все расходимости (их стали называть перенормируемыми), и те, в которых после любого числа перенормировок появляются все новые и новые расходимости (неперенормируемые). Теория перенормировок в КЭД обеспечивает феноменально точное описание экспериментальных данных. Для некоторых величин (например, так называемого лэмбовского свдига) результаты вычислений в КЭД согласуются с экспериментом с ошибкой менее 0,000001%! Ни в одной другой области человеческого знания предсказания с такой точностью пока невозможны.
Рассматривая понятия расходимостей и перенормировок, уместно задать более общий вопрос: для чего вообще физикам понадобилось согласовывать две теории – СТО и квантовую механику? В научно-популярной литературе уделяется некоторое внимание рассмотрению таких понятий как красота, эстетическое достоинство, поэзия математики, музыка природы[10]. Все эти термины связывают с эффективностью той или иной теории. «Эффективные теории всегда красивы. Но красивы они не потому, что эффективны, а потому, что наделены внутренней симметрией и экономичны с точки зрения математики»[11].
Физики не могли примириться с мыслью, что в описании квантового мира возникают непреодолимые расходимости при условии рассмотрения мира квантов с позиции другой, прекрасно себя оправдавшей теории – СТО. Идея перенормировок в КЭД оказалась экономичной с точки зрения математики. Идея перенормировок сродни попытке «одним махом» избавиться от множества противоречий, и решение это не лишено определенного изящества. Объединение СТО и квантовой механики в рамках формализма КЭД было сделано по «эстетическим соображениям», определяющим мотивом которых является поиск гармоничного описания всех известных физических процессов.
Для иллюстрации эстетического достоинства перенормировок уместно вспомнить историю формирования гелиоцентризма, провозглашенного Н. Коперником. Модель мира, созданная Клавдием Птолемеем, основывалась на предположении, что Земля находится в центре мироздания, а планеты «прикреплены» к жестким концентрическим сферам, вращающимся с различными скоростями вокруг Земли. Однако такая картина не смогла объяснить попятное движение некоторых планет, например Марса, который периодически меняет направление своего движения. Пришлось вводить дополнительные, меньших размеров, сферы, чтобы сочетание разного рода вращений объясняло попятное движение планет. Ко времени Коперника модель Птолемея стала чрезвычайно запутанной и сложной: приходилось вводить все новые и новые условия в геоцентрическую модель. Коперник же предложил принципиально новое решение вопроса. Провозгласив определенные требования, он решительно избавился от громоздкой системы сфер, которые вносила модель геоцентризма. С точки зрения математики, теория Коперника несомненно экономична. Вместо бесчисленных эксцентрических кругов, эпициклов и эквантов достаточно было ввести несколько требований, чтобы «вполне упорядоченно сохранить равномерность движений». В каком-то смысле теория Коперника является перенормируемой. Введение конечного числа условий автоматически сделало совершенно бессмысленной саму постановку вопроса о введении каких-либо дополнительных сфер. С появлением новой модели можно было совершенно безбоязненно вводить сколько угодно новых небесных тел: условия вращения каждого из них уже были заложены в начальные условия самой теории!
Впрочем, понятие симметрии в истории физики XX века стало употребляться не только в качестве «лирического отступления», но приобрело значение технического термина в связи с исследованием физических полей и открытиями в области элементарных частиц. Все эти данные также требовали гармоничного «вплетения» в общую картину мироздания.
Частицы и взаимодействия
Прежде чем перейти к обзору симметричных теорий, обозначим основные представления о физических взаимодействиях и элементарных частицах. В настоящее время науке известны четыре фундаментальных взаимодействия: гравитация, электромагнетизм, слабое[12] и сильное[13] ядерные взаимодействия.
Расщепление атома и фундаментальные частицы. Когда говорят о расщеплении атома, то на самом деле имеют в виду столкновение частиц, движущихся с высокими скоростями. При лобовых столкновениях частиц высвобождается энергия, достаточная для рождения других частиц. То, что происходит при таких столкновениях, лучше рассматривать как непосредственное рождение других частиц из энергии столкновения.
Некоторые из этих частиц – те самые «кирпичики», из которых построена наблюдаемая материя: протоны, нейтроны и электроны. Другие частицы обычно в окружающем веществе не встречаются, время их «жизни» чрезвычайно мало, и по истечении срока они распадаются на обычные частицы. Именно таких нестабильных частиц – подавляющее большинство в микромире, и для понимания законов этого микромира требуется классификация частиц.
Не вдаваясь в детали классификации огромного количества обнаруженных экспериментальным путем элементарных частиц, отметим только, что все это многообразие подвергнуто определенной систематизации в виде определенной конструкции, именуемой стандартной моделью теории элементарных частиц (далее стандартная модель ТЭЧ)[14].
Все производные частицы – и образующие известные нам стабильные химические элементы, и нестабильные частицы, полученные экспериментальным путем на ускорителях элементарных частиц, – образуются по определенным правилам из фундаментальных фермионов посредством их взаимодействия с помощью частиц-переносчиков. Таким образом, в основе всего существующего во Вселенной многообразия лежит конечное число фундаментальных «кирпичиков». Кроме того, все многообразие физических явлений также сводится всего лишь к четырем видам физических взаимодействий. Вполне уместен вопрос: почему фундаментальных частиц именно столько и они обладают именно такими и никакими другими характеристиками (масса, спин, заряд)? Почему физических взаимодействий именно четыре? И существует ли между ограниченным числом фундаментальных частиц и взаимодействий более тесная связь, позволяющая объяснить их характеристики с позиции единой модели, единой научной теории?
В середине XIX века Дж. Максвелл создал единую теорию электромагнитного поля, охватившую как электрические, так и магнитные явления. Начиная с 20-х годов XX века А. Эйнштейн предпринимал систематические попытки объединить электромагнетизм с общей теорией относительности. К середине XX века старания физиков увенчались определенным успехом: соединение квантовой механики с электромагнитным полем привело к созданию КЭД, обладающей удивительной точностью и предсказательной силой. Вдохновленные этим успехом, теоретики в 1960–1970-х годах обратились к другим типам взаимодействий с целью дать им такое же квантовое описание, какое было дано электромагнитному полю. Но та перенормировка, которая получила применение в создании КЭД, не сработала в случае сильного и слабого взаимодействий. Оказалось, что частицы-переносчики этих взаимодействий порождают бесконечное множество расходимостей, от которых не удается избавиться «одним махом», как это было сделано в КЭД.
(Продолжение следует.)