Асимптотически нормальное оценивание параметров для класса задач дробно-линейной регрессии тема автореферата и диссертации по математике, 01.01.05 ВАК РФ
Линке, Юлиана Юрьевна
АВТОР
|
||||
кандидата физико-математических наук
УЧЕНАЯ СТЕПЕНЬ
|
||||
Новосибирск
МЕСТО ЗАЩИТЫ
|
||||
2000
ГОД ЗАЩИТЫ
|
|
01.01.05
КОД ВАК РФ
|
||
|
Министерство образования Российской Федерации Новосибирский государственный университет
На, правах рукописи р Г УДК 519.23
1 з Н<У; яооо
ЛИНКЕ Юлиана Юрьевна
АСИМПТОТИЧЕСКИ НОРМАЛЬНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ ДЛЯ КЛАССА ЗАДАЧ ДРОБНО - ЛИНЕЙНОЙ РЕГРЕССИИ
01.01.05 - теория вероятностей и математическая статистика
АВТОРЕФЕРАТ
диссертации на соискание ученой степени кандидата физико-математических наук
Новосибирск 2000
Работа выполнена на кафедре теории вероятностей и математической статистики Новосибирского государственного университета
Научный руководитель - д.ф.-м.н., профессор А. И. Саханенко
Официальные оппоненты - д.ф.-м.н., профессор В. И. Лотов
Ведущая организация - Механико-математический факультет
Московского государственного университета им. М. В. Ломоносова
Защита состоится 22 ноября 2000 г. в 16 часов на заседании диссертационного совета Д 002.23.03 в Институте математики им. С. Л. Соболева СО РАН по адресу: 630090, Новосибирск, пр. Коптюга, 4, к.417.
С диссертацией можно ознакомиться в библиотеке Института математики им. С. Л. Соболева СО РАН.
Автореферат разослан « ¿-О » Ок?л£рЯ- 2000 г.
к.ф.-м.н., доцент В. Е. Мосягин
И. о. ученого секретаря диссертационного совета
Д 002.23.03 при Институте математики СО РАН д. ф.-м. н.
J
С. Г. Фосс
Общая характеристика работы
Актуальность темы. Регрессионный анализ — один из наиболее широко распространенных статистических методов, использующийся при построении математической зависимости на основе экспериментальных данных. История развития регрессионного анализа насчитывает около двух веков с момента появления метода наименьших квадратов, предложенного К. Гауссом и А. Лежандром и составляющего математическую основу регрессионного анализа. Усилиями поколений ученых многих стран была развита и теория, ставшая теперь классической.
Отметим, что применение метода наименьших квадратов является относительно простой задачей только в случае линейной регрессии. В этом случае поиск т-мерной асимптотически нормальной оценки сводится к решению системы из т линейных уравнений с известными постоянными коэффициентами.
Однако содержательные, физические модели, как правило, нелинейны по параметрам. Но при решении задач нелинейной регрессии возникает целый ряд новых существенных трудностей — как идейных, так и технических. В частности, здесь уже невозможно в общем случае указать формулу для оценок метода наименьших квадратов. В итоге для оценивания параметров нелинейных моделей зачастую приходится прибегать к итерационным методам, что, в свою очередь, порождает массу проблем, связанных с выбором начального значения, исследованием сходимости процесса и свойств построенных таким образом оценок.
В этой связи представляется актуальной задача построения достаточно просто устроенных оценок для более широких классов задач регрессии, чем линейные модели.
Цель работы — для класса задач дробно-линейной регрессии построить асимптотически нормальные и в некоторых случаях асимптотически оптимальные оценки неизвестных параметров и исследовать свойства этих оценок.
Рассматриваемый класс регрессионных задач включает в себя весь класс задач линейной регрессии, с одной стороны, и из-
вестную в естественных науках нелинейную модель Михаэлиса — Ментен, с другой.
Отметим, что в изучаемых в диссертации моделях дробно-линейной регрессии рассмотрены более общие предположения, чем классические регрессионные предпосылки. В частности, в общем случае не предполагается некоррелированность и нормальное распределение ошибок. Более того, дисперсии наблюдений считаются неизвестными и различными а также, возможно, зависящими от неизвестных параметров.
Методика исследований основана на общих методах теории вероятностей и математической статистики (в частности, на использовании предельных теорем для сумм разнораспределен-ных случайных величин), а также применении аппарата линейной алгебры и элементов анализа.
Научная новизна. В работе предложен и обоснован новый метод, позволяющий на первом шаге находить явные, асимптотически нормальные оценки параметров в классе задач дробно-линейной регрессии. Этот метод позволяет находить т-мерные асимптотически нормальные оценки как решения системы из т линейных уравнений с известными, специально подобранными коэффициентами, зависящими от наблюдений.
При наличии некоторой информации о поведении дисперсий наблюдений предложен способ нахождения и асимптотически нормальных оценок с асимптотически минимальной матрицей ко-вариаций. В качестве этих «улучшенных» ш-мерных оценок второго шага предлагается использовать решение некоторой системы из т линейных уравнений с коэффициентами, являющимися специально подобранными функциями, которые, кроме наблюдений, зависят только от оценок, полученных на первом шаге.
В качестве одного из вспомогательных результатов можно отметить технику исследования дробно-линейных статистик с коэффициентами, являющимися функциями от других статистик. В полученных результатах от упомянутых функций вместо, казалось бы, неизбежного предположения о существовании у этих
функций ограниченных производных второго порядка, требуется, по-существу, лишь условие Липшица.
Практическая значимость. Результаты диссертации имеют не только теоретическую, но и практическую направленность и могут быть использованы во многих областях науки и техники, где применяется регрессионный анализ. В частности, в работе подробно изучена регрессионная модель Михаэлиса — Ментен, широко используемая для обработки экспериментальных данных при изучении зависимостей, наиболее часто возникающих в биохимии.
Апробация работы. Результаты диссертации неоднократно докладывались на объединенном семинаре кафедры теории вероятностей и математической статистики НГУ и лаборатории теории вероятностей и математической статистики ИМ СО РАН под руководством академика А. А. Боровкова,, а также на нескольких конференциях.
Публикации. Основные результаты диссертации содержатся в работах [1-6], список которых приведен в конце автореферата.
Структура и объем диссертации. Диссертация содержит 84 журнальных страницы и состоит из введения, трех глав, объединяющих 21 пункт, большинство из которых для удобства разбиты на подпункты, и списка литературы, содержащего 39 наименований работ отечественных и зарубежных авторов.
Используемая в автореферате нумерация теорем, следствий, замечаний, примеров и формул автономна от диссертации.
Пусть в результате серии из N испытаний наблюдается последовательность случайных величин Z\,..., Z/v, относительно которых предполагается, что они представимы в виде
Содержание диссертации
z,=
+ +ii' i=1.....(1)
Таким образом, o¡¿(#) и ¿3¿(6>) — это линейные функции, зависящие от неизвестного m-мерного параметра в с координатами 01) • • • j 8т-> чем и объясняется название «дробно-линейная» регрессия. Числа bji > 0, ao¿, i = 1,..., iV, j = 1,..., m предполагаются известными. Случайные величины г = 1,..., N в (1) — это ненаблюдаемые погрешности измерений.
Опишем идею построения оценок для параметра в в модели (1). Положим Xji ~ aji - bjiZi, Yi = Zi - a0i, тц ~ (3г{0)ег. Домно-жая обе части уравнения (1) на знаменатель /3¿(0), переписываем уравнение (1) в следующем эквивалентном виде
™=1хИв> + Ъ> i = (2)
Нетрудно видеть, что вид уравнений (2) аналогичен виду уравнений задачи линейной регрессии. И поэтому имеется определенная аналогия между стандартным методом получения оценок линейных моделей регрессии и предлагаемым ниже в (4) способом получения оценок в более сложной задаче дробно-линейной регрессии (1). И там и здесь оценки параметров предлагается искать как решения некоторых систем линейных уравнений, в которых число уравнений совпадает с числом неизвестных параметров. И там и здесь не нужно для получения этих оценок использовать трудоемкие итерационные процедуры для их приближенного поиска. Но главное и очень серьезное отличие уравнений (2) от аналогичных уравнений линейной регрессии состоит в том, что величины {Xji} в (2) — это не постоянные, а случайные величины специального вида. Это обстоятельство делает задачу исследования свойств оценок .. значительно более трудоемкой, чем в случае линейной регрессии.
Продолжим построение оценок. Домножим равенства (2) на некоторые константы с^-, выбираемые статистиком, и просуммируем эти равенства по г. Получаем
£,=1 CkiYi ~ X^L Е™ Í = Hlj CkiT,i- (3)
Мы вправе предполагать, что правая часть в тождестве (3), являющаяся взвешенной суммой погрешностей измерений, мала по сравнению с остальными слагаемыми, поэтому в (3) естественно «отбросить» правую часть, подставив в полученное тождество вместо неизвестного параметра в оценку в*. Итак, на первом шаге мы всегда будем находить требуемые оценки в^,..., в^ как решения системы линейных уравнений
Е^ Е ^ = Е^ к = 1 ,...,т (4)
при соответствующих специально подобранных постоянных {с^,}.
Пусть оценки первого шага 01,..., в*^ построены. Введем в рассмотрение более сложно устроенные оценки 9\*,..., в^ как решения следующей системы уравнений:
Е^Е^^П^Г к = 1,...,т, (5)
где ть'(^) ~~ это некоторые специально подобранные функции, зависящие от неизвестного параметра в. Отметим, что система уравнений (5) отличается от системы (4) лишь заменой чисел на статистики уы(в*). Подчеркнем, что использование статистик в дополнение к числам сд.г-, существенно расширяет класс оценок. Тем самым, при удачном выборе функций появля-
ется возможность вместо оценок в% использовать «улучшенные» оценки в^*. Вопросы о выборе постоянных сы и функций ть'О?) будут рассмотрены далее.
В диссертации найдены достаточные условия состоятельности и асимптотической нормальности построенных оценок, получены необходимые условия для оптимальности введенных оценок и тем самым указан возможный путь для нахождения таких оценок. Из-за необходимости вводить большое количество определений и громоздких обозначений, в реферате мы опускаем точные формулировки многочисленных предположений, которые с необходимостью появляются в такой общей задаче. Опишем только
вид асимптотических ковариационных матриц, которые являются ключевыми при практическом применении утверждений, следствий и рекомендаций исследования.
Введем в рассмотрение матрицы С, Г(0), X и Л, состоящие из т строк и N столбцов с элементами
(С )ы = ски Г(0))ы = 7и(0),
и вектора У = (Ух,..., Удт)7, т] = (гц,..., щ)г,
в — • • •) 8* — (#1) • • •! 0аг)Т1
где через (-)рд обозначен элемент на пересечении р-ой строки и 5-ого столбца соответствующей матрицы; символ Т здесь и далее обозначает транспонирование вектора или матрицы.
В частности, в этих обозначениях уравнения (2), (4) и (5) можно записать в следующем, более компактном виде:
У = Хт0 + 77, СХт0* = СУ, Г(0*)ХтГ* = Г(Г)У. (6)
Пусть Ег/; = 0 и 0 < Т)гц < оо для всех г. В этом случае через V обозначим ковариационную матрицу случайного вектора ту и введем в рассмотрение следующий класс матриц:
М(0,У) = {Г = ГтХ^ : В (ГАТ)-1 и 3 (ГУГТ)_1 }. Для матриц Г 6 М(в, V) будем использовать обозначение
В(Г,0,У) = (ГЛТ)-1ГУГТ(ГЛТ)-1Т. (7)
Также предполагаем, что С, Г (в) £ М(в, V).
Определение. Будем говорить, что некоторая т-мерная статистика в* является асимптотически нормальной оценкой тп-мерного параметра 9 с асимптотической ковариационной матрицей ККТ, если распределение вектора К"1 (в* — в) слабо сходится к т-мерному стандартному нормальному распределению.
Теорема 1. Пусть выполнены условия теоремы 2.2 диссертации. Тогда оценка 9* асимптотически нормальна с асимптотической ковариационной матрицей В с = В (С, в, V).
Теорема 2. Пусть выполнены условия теоремы 2.3 диссертации. Тогда оценка в** асимптотически нормальна с асимптотической ковариагщонной матрицей Вр = В(Г(0),#, V).
Ясно, что оценки в* и в** тем точнее, чем меньше их асимптотические ковариационные матрицы В с и Вр. Поэтому естественно среди матриц вида В(Г,#, V) попытаться найти в некотором смысле минимальные. Далее неравенство В1 > В2 между двумя симметричными неотрицательно определенными матрицами В1 и Вг означает, что матрица В1 — В2 — неотрицательно определена. Положим
Вор£(<9, V) = (ЛУ_1ЛТ)~\ Г°(6>, V) = ЛУ"1. (8)
Теорема 3. Существует такая симметричная неотрицательно определенная матрица В°, что для всех матриц Г 6 М.(в, V) и всех невырожденных матриц II размерности тп справедливо равенство
(ГЛТ) (В(ГД V)) -Вор((0,У)) (ГЛТ)Т =
= (Г - ИГ°) В° (Г - Ш?0)т . (9)
Следствие 1. Для всех матриц Г £ Л4(в,У) справедливо соотношение
В(Г,0,У) > Ворг(0, V). (10)
При этом равенство в неравенстве (10) имеет место в том случае, когда
Тор1 = ЯЛУ-1 н 11ГО(0, V), где И. — произвольная невырожденная матрица размерности т.
П р и м е р 1. Предположим, что ковариационная матрица V представима в виде V = ЛУ(0)ст2, где \¥(0) — матрица, у которой все элементы являются известными функциями от в, а а2 — некоторый неизвестный параметр. Положим Г(0) = Л^ЛУ^1 (в), С = Г(£?о) при некотором заранее выбранном во- Если при так определенных матрицах Г(#) и С выполнены условия теоремы 2, то оценка в** является асимптотически нормальной с оптимальной ковариационной матрицей Вор1(0, V).
Замечание! Если неизвестен точный вид ковариационной матрицы V, то мы не сможем найти матрицу Гор1 и построить оценку 9** при Г(6*) = Тор1. Тогда можно рекомендовать взять в качестве элементов Г(0) функции, относительно которых можно предполагать, что они «не сильно отличаются» от неизвестных элементов матрицы Гор'. В такой ситуации естественно ожидать, что асимптотическая ковариационная матрица Вр оценки 0** будет «близкой» к оптимальной матрице V). В этом случае тождество (9) достаточно наглядно характеризует степень этой близости.
Замечание 2. Подчеркнем, что в общем случае матрица Горг всегда зависит от неизвестного параметра 9, а также ковариационной матрицы V. Нетрудно понять, что элементы матрицы ТорЬ являются постоянными только при очень специальных дополнительных ограничениях на матрицы Л и V. Тем не менее удалось найти следующий нетривиальный пример, когда такое возможно.
П р и м е р 2. Пусть
= ат» (с0 + 9т), ™оДИ' = {&),
где \1)1{9) — известная функция, <т2 — неизвестный параметр, с0 — некоторая известная константа. Предположим, кроме того, что случайные погрешности гц некоррелированы. В этом случае уже на первом шаге при построении оценки в* мы можем выбрать оптимальные константы с^,-, полагая ст1 = (1 — соЬт;)гим и = Ък№о{ при к < т.
В диссертации приведен еще целый ряд рекомендаций по выбору постоянных сы и функций в различных ситуациах.
3 а м е ч а н и о 3. Пусть погрешности £г- независимы, имеют стандартное нормальное распределение, и их дисперсии Dбг = of не зависят от параметра 0. Тогда Вор1(в, V) = где In (в) —
информация Фишера для выборки Zi,..., Zдг. Таким образом, по аналогии с неравенством Рао-Крамера, следует ожидать неулучшаемости, в некотором смысле, оценок 9*, если положить С = Г0*5' и неулучшаемости оценок 9**, если положить Г(0) = Topt.
Замечай и е 4. Рассмотренный в примере 1 достаточно общий случай включает в себя, при W(0) = I, и ситуацию классических регрессионных предположений. То есть в случае, когда погрешности измерений €1,...,бдг независимы, нормально распределены, имеют нулевые средние, а дисперсии Det = о2 — одинаковые и неизвестные, тогда оценка второго шага в** асимптотически нормальна с оптимальной ковариационной матрицей Вор1(в, V). Более того, в этих предположениях в** и в некотором смысле асимптотически эффективна (см. замечание 3).
Замечание 5. Все утверждения остаются справедливыми также в ситуации, когда величины Zt) aJt. bji, et и элементы ковариационной матрицы V зависят от числа наблюдений N. Единственное исключение: в теореме 2.6 диссертации надо требовать, чтобы распределения случайных величин не зависели ни от г, ни от N.
Выше мы изложили некоторые из результатов второй главы, основная цель которой — описать в общем виде предлагаемый метод построения оценок и схему изучения этих оценок, а также продемонстрировать ряд идей, которые могут быть использованы при изучении полученных оценок.
Далее следует краткое описание содержания остальных глав диссертации.
Первая глава посвящена изучению задачи оценивания неизвестного параметра 9 в предположении, что последовательность
наблюдений -Ij представима в виде
= ТТъГв +
(И)
где — последовательность независимых случайных вели-
чин, удовлетворяющих условиям: Е£,- = О, — 1, ъ = 1,..., N. При этом значения числовых последовательностей а,- > 0 и Ь{ > О считаем известными, а значения параметра в и дисперсий DZi = о\ — неизвестны. Также предполагаем неизвестными и значения случайных величин £1,...,
Однопараметрическая модель (11) — это единственный частный случай, для которой идеи и обоснования предлагаемого в работе метода оценивания можно изложить достаточно просто, без привлечения значительно уменьшающих наглядность матричных обозначений. Кроме того, в этом случае некоторые утверждения можно получить без некоторых дополнительных технических предположений. Это и послужило причиной предварительного досконального разбора этого частного случая в первой главе.
В качестве оценок первого шага в* и «улучшенных» и более сложно устроенных оценок в** второго шага предлагается использовать следующие статистики:
где С{ > 0 — некоторые постоянные, а 7»'(£) > 0 — некоторые функции, выбираемые статистиком. Введем обозначение
Теорема 4. Пусть
infmin{oi, Ь,-, q, аг} > 0, supmax{ai, ¿»¿, с,-, стг} < оо. (13)
4 = {а,}) =
(El^Mi + Mr1)
Тогда в* является асимптотически нормальной оценкой параметра 9 с асимптотической дисперсией
Теорема 5. Если выполнено условие (13) и
inf уг(9) > О, sup(Tt(0) + sup |Tl'(0l) < с», (14)
1 i в/2<1<29
то в** является асимптотически нормальной оценкой параметра 9 с асимптотической дисперсией d2, которая определяется по формуле (12) при С{ = yi(9).
Для асимптотических дисперсий d2c и d'^ построены некоторые оценки d* и d** и доказаны свойства асимптотической нормальности статистик б* и 9** при замене асимптотических дисперсий на их оценки. Эти утверждения могут быть полезны, например, при построении доверительных интервалов.
Найдена и оптимальная последовательность j мини-
мизирующая коэффициенты асимптотической дисперсии d2c и d,2. Показано, что оценка первого шага 9* оптимальна только в единственном случае, когда of = сг2(а;6;Д)(1 -f Ь,-0)-3 при всех г, где параметр а2 может быть неизвестным.
Отметим, что в диссертации все утверждения первой главы доказаны при более строгих и и тонких условиях, чем приведенные здесь утверждения.
В третьей главе изучается двухпараметрическая модель Ми-хаэлиса — Ментен. Нам удобнее, будет следовать терминологии, принятой при изучении этой важной модели в большинстве публикаций на эту тему и через К и V обозначать неизвестные параметры, а через si,..., s^ — известную числовую последовательность. Тогда наблюдения эксперимента Z{ представимы в следующем виде:
у с-
= *+ i =
Эта модель является важным частным случаем рассмотренной в главе 2 общей задачи дробно-линейной регрессии. При изучений
оценок параметров К и V используются некоторые дополнительные (по сравнению со второй главой) предположения и наглядно демонстрируется возможная реализация многих идей второй главы. Для исследования свойств оценок применяется и техника исследования дробно-линейных статистик с коэффициентами, являющимися функциями от других статистик, развитая в первой главе.
В частности, после исследования условий асимптотической нормальности и оптимальности некоторого достаточно широкого класса оценок, оказалось возможным рекомендовать на первом шаге ограничиться оценками вида
N N N
К* = -^стщ/^скм/зь V* = £суг(1 + (15)
¿=1 ¿=1 1=1
при
су{ = с'> Ск* = с»'/в» ~ с(16)
где сг- > 0 — некоторые выбираемые статистиком числа.
На втором шаге, при построении оценок К** и V**, мы рекомендуем ограничиться оценками, которые получатся, если в формулах (16) и (15) заменить постоянные с,- на статистики у,-(2£"*, V*), где 7г(-, •) > 0 — некоторые специально подобранные статистиком непрерывно дифференцируемые функции.
Для повышения точности так определенных оценок нужно числа с,- и функции 7, (К, V) выбирать таким образом, чтобы величины с,-(1 + К/в^о? и л(К, V)(1 + К/как можно меньше зависели бы от ¿.
Опуская, из-за ограниченности объема реферата, все утверждения этой главы, отметим, что благодаря широкому практическому использованию уравнения Михаэлиса — Ментен большое количество работ посвящено решению задачи оценивания параметров этой регрессионной модели. Но предлагаемые в диссертации оценки во многих случаях одновременно проще и точнее известных ранее.
С большой признательностью хочу поблагодарить научного руководителя доктора физико-математических наук, профессора А. И. Саханенко за предложенное интересное направление исследований, помощь, постоянное внимание к работе, ценные замечания и советы.
Публикации по теме диссертации
1. Линке Ю.Ю., Саханенко А. И. Асимптотически нормальное оценивание параметра в задаче дробно - линейной регрессии. //Сибирский Математический Журнал, 2000, Т.41, N.1, С.150-163.
2. Линке Ю.Ю. Явное асимптотически нормальное оценивание параметра для некоторой многомерной задачи нелинейной регрессии. // Сибирский журнал индустриальной математики, 2000, T.III, N.1(5), С. 157-164.
3. Линке Ю.Ю. Асимптотически нормальное оценивание параметра в задаче дробно - линейной регрессии. //VII Между-нардная Конференция. Математика. Экономика. Экология. Образование. Ростов-на-Дону, 1999. Тезисы докладов, С.117.
4. Линке Ю.Ю., Саханенко А. И. Асимптотически нормальное оценивание параметров в уравнении Михаэлиса - Ментен. // Четвертый сибирский конгресс по прикладной и индустриальной математике (ИНПРИМ-2000). Новосибирск, 2000. Тезизы докладов. Часть III. С. 16-17.
5. Линке Ю. Ю. Асимптотически нормальное оценивание параметра в задаче дробно - линейной регрессии. //Материалы XXXV Междунардной Научной Студенческой Конференции, Новосибирск, 1997, С.60-61.
6. Линке Ю. Ю. Двухшаговый метод асимптотически нормального оценивания параметра в задаче нелинейной регрессии. //Материалы XXXVI Междунардной Научной Студенческой Конференции, Новосибирск, 1998, С.70-71.
Подписано в печать 12.10.2000г. Уч.-изд. л. 1.
Офсетная печать. Формат 60x84 1/16 Тираж 80экз. Заказ 530.
Лицензия ЛР N 021285 от б мая 1998г.
Издательский центр НГУ; 630090, Новосибирск-90, ул.Пирогова,2.
Введение **
Глава 1. Одномерная задача дробно-линейной регрессии
1.1 Описание модели и построение оценок.
1.2 Основные результаты. .И
1.3 Некоторые обобщения.
1.4 Доказательства свойств оценки 9*.
1.5 Доказательства свойств оценки в**.
1.6 Комментарии.
Глава 2. Общая задача дробно-линейной регрессии
2.1 Постановка задачи
2.2 Построение оценок неизвестного параметра.
2.3 Состоятельность и асимптотическая нормальность.
2.4 Улучшение оценок.
2.5 Оптимизация оценок
2.6 Некоторые частные случаи. .;.
2.7 Следствия для независимых наблюдений.
2.8 Комментарии.
Глава 3. Уравнение Михаэлиса — Ментен
3.1 Постановка задачи.
3.2 Построение оценок.
3.3 Оптимизация оценок
3.4 Условия состоятельности и асимптотической нормальности
3.5 Доказательства теорем 3.3-3.5.
3.6 Доказательства теоремы 3.6 и следствия 3.4.
3.7 Комментарии.
Регрессионный анализ — один из наиболее широко распространенных статистических методов, использующийся при построении математической зависимости на основе экспериментальных данных. Трудно перечислить все сферы человеческой деятельности, где применение метода было плодотворным.
Родоначальником регрессионного анализа принято считать К.Гаусса. На рубеже XVIII и XIX столетий К.Гаусс (и независимо от него А.Лежандр) заложили основы метода наименьших квадратов (МНК). Поводом для создания этого метода, составляющего математическую основу регрессионного анализа, послужили актуальные проблемы астрономии, а затем и геодезии. Усилиями поколений ученых многих стран была развита теория, ставшая теперь классической. При столь долгой истории регрессионного анализа можно было бы ожидать, что он давно полностью изучен, остановился в своем развитии и перестал интересовать специалистов. Но это далеко не так: достаточно взглянуть на публикации в статистических журналах за последние 10-15 лет чтобы увидеть, что и в настоящее время регрессионный анализ развивается достаточно интенсивно.
Примерно 150 лет, до середины XX века, длился классический период регрессионного анализа. К алгебраической процедуре минимизации квадратичной формы, представляющей, собственно, метод наименьших квадратов, добавляется некоторая фиксированная система статистических постулатов, задающих математическую модель. В частности, в классическом регрессионном анализе предполагается, что измеряемые в результате эксперимента переменные — это некоррелированные нормально распределенные случайные величины с одинаковыми дисперсиями. Но со временем возникают все более сложные задачи, в которых исходные предпосылки классического регрессионного анализа выполняются далеко не всегда. Таким образом происходит пересмотр довольно жестких базовых предпосылок классического регрессионного анализа. Отказ хотя бы от одного из классических предположений фактически приводит к созданию новой модели. А последствия отказа сразу от нескольких предположений во многих случаях не исследованы. К тому же у каждого из базовых предположений есть не одна альтернатива, а целый спектр возможностей.
Заметим, что до последнего времени только в случае линейной регрессии применение метода наименьших квадратов было относительно простой задачей, поскольку только в этом случае поиск т-мерной асимптотически нормальной оценки сводится к решению системы из т линейных уравнений с известными постоянными коэффициентами.
Однако содержательные, физические модели, как правило, нелинейны по параметрам. Методология их создания составляет один из интенсивно развивающихся и заслуживающих особого внимания раздел регрессионного анализа — нелинейный регрессионный анализ. Но при решении задач нелинейной регрессии возникает целый ряд новых существенных трудностей — как идейных, так и технических. В частности, в этом случае уже невозможно в общем виде указать формулу для оценок метода наименьших квадратов. В итоге для оценивания параметров нелинейных моделей зачастую приходится прибегать итерационным методам, что, в свую очередь, порождает массу проблем, связанных с выбором начального значения, исследованием сходимости процесса и свойств построенных таким образом оценок.
Некоторые функции регрессии с помощью преобразования переменных поддаются линеаризации относительно своих параметров. Тогда параметры регрессии исходных функций находят путем обратных преобразований. Линеаризация связей дает возможность применять для нахождения оценок параметров метод наименьших квадратов, однако полученные оценки параметров исходных функций могут, к сожалению, не обладать свойствами МНК-оценок (например, свойством несмещенности).
Несмотря на огромное число публикаций по нелинейному регрессионному анализу, строгой теории нелинейной регрессии пока нет и продолжается активное развитие многих направлений этой области математической статистики.
В настоящей работе предложен и обоснован некоторый новый метод, позволяющий на первом шаге достаточно просто находить явные, асимптотически нормальные оценки параметров в специальном классе задач нелинейной регрессии, которые мы будем называть задачами дробно-линейной регресии. А именно, предложенный метод позволяет находить т-мерные асимптотически нормальные оценки как решения системы из т линейных уравнений с известными, специально подобранными коэффициентами, зависящими от наблюдений. При наличии некоторой информации о поведении дисперсий наблюдений, предложен способ нахождения асимптотически нормальных оценок и с асимптотически минимальной матрицей ковариаций. В качестве этих т-мерных оценок второго шага предлагается использовать решения некоторой системы из т-линейных уравнений с коэффициентами, которые, кроме наблюдений, зависят только от оценок, полученных на первом шаге.
Отметим, что в изучаемых в работе моделях дробно-линейной регрессии рассмотрены более общие предположения, чем предпосылки классического регрессионного анализа. В частности, в общем случае не предполагается некоррелированность и нормальное распределение ошибок. Более того, дисперсии наблюдений считаются неизвестными и различными а также, возможно зависящими от неизвестных параметров. Предполагается, что последовательность наблюдений, дисперсий ошибок и известные числовые последовательности могут зависеть от количества наблюдений. Отметим также, что предлагаемый в работе метод оценивания для задач дробно-линейной регрессии может быть успешно использован и при классических предположениях, что показано в соответствующих примерах.
Остановимся кратко на моделях, рассмотренных в каждой из глав. Всюду далее предполагается, что в результате серии из N испытаний наблюдается последовательность случайных величин ., а через ег-, г ~ 1,., N обозначены ненаблюдаемые случайные погрешности измерений.
В главе 1 рассматривается однопараметрическая модель дробно-линейной регрессии, для которой идеи и математическое обоснование исследуемого в работе метода оценивания можно изложить достаточно просто, без привлечения значительно уменьшающих наглядность матричных обозначений. Предполагается, что последовательность наблюдений 2г пред ставима в виде где в — неизвестный параметр, щ > 0 и > 0, г = 1,., N — некоторые известные числовые последовательности.
На первом этапе в качестве оценки неизвестного параметра в предлагается использовать некоторую оценку из класса дробно-линейных статистик с постоянными коэффициентами. С помощью классических предельных теорем для разнораспределенных величин выясняются асимптотические свойства введенных оценок. Но построенные оценки не обязаны иметь наименьший разброс. Устанавливается, что оптимальную оценку следует искать используя дробно-линейные комбинации наблюдений с коэффициентами, зависящими от неизвестного параметра, и указывается вид этих коэффициентов. Поскольку неизвестный параметр в этих коэффициентах неизбежно придется заменять на его оценку (построенную на первом шаге), то возникает вопрос об асимптотических свойствах новых оценок — оценок второго шага. Решается и эта качественно более сложная задача: исследование дробно-линейных статистик с коэффициентами, являющимися функциями от других статистик. Тем самым построена двухшаговая процедура, позволяющая, минуя длительный процесс последовательного приближения, строить явные асимптотически нормальные оценки для неизвестного параметра с минимальной асимптотической дисперсией. Подчеркнем, что в полученных результатах от упомянутых функций вместо, казалось бы, неизбежного предположения о существовании у этих функций ограниченных производных второго порядка, требуется лишь условие Липшица.
В главе 2 рассматривается общая задача дробно-линейной регрессии — оценивание неизвестного т-мерного параметра в с координатами в^ > 0, j = 1,. ,т, в предположении, что результаты эксперимента пред ставимы в виде т
ЙОг + X)
2* =-ш1-+ <ч-, I = 1,., N,
1 + £ М; 1 то есть числитель и знаменатель — это линейные функции, зависящие от неизвестного т-мерного параметра в с координатами ,., вт (этим и объясняется использование термина дробно - линейные модели для изучаемых задач регрессии). Числа Ь^ > 0, а0г-, а% = 1,., И, ^ — 1,., т, предполагаются известными.
Основная цель второй главы — описать в общем виде предлагаемый метод построения оценок и схему изучения этих оценок, а также продемонстрировать ряд идей, которые могут быть использованы при изучении полученных оценок.
В третьей главе изучается модель, порожденная широко используемым в естественных науках двухпараметрическим уравнением Михаэлиса — Ментен. Следуя терминологии, принятой при изучении этого уравнения, известная числовая последовательность обозначается через ., ¿дг, через К и V — неизвестные параметры, и введенные величины связаны между собой следующим соотношением:
К + Si
Эта модель является важным частным случаем рассмотренной в главе 2 общей задачи дробно-линейной регрессии. При изучении оценок параметров К и V наглядно продемонстрировано применение многих идей второй главы, что без дополнительных предположений было невозможно для общей задачи дробно-линейной регрессии. Также при изучении оценок используется техника исследования дробно-линейных статистик с коэффициентами, являющимися функциями от других статистик, развитая в первой главе.
О структуре работы. Диссертация состоит из введения, трех глав, которые делятся на пункты (п.1.1-1.6, п.2.1-2.8, п.3.1-3.7), и списка литературы. Некоторые из пунктов для удобства чтения разбиты на подпункты. Все теоремы, леммы, замечания и примеры идентифицируются набором из двух чисел, первое из которых соответствует номеру главы, а второе указывает на поря-ковый номер утверждения в этой главе: например, лемма 1.15 является пятнадцатой леммой первой главы. Нумерация формул в работе также двойная и сквозная внутри каждой главы: первая цифра указывает на номер главы, а вторая — на порядковый номер формулы в этой главе. Список литературы составлен последовательно по двум алфавитам — русскому и английскому. Работы автора помещены в конце списка.
1. Zivin J.A., Waud D.R. (1982) How to analyze binding, enzyme and uptake data: The simplest case, a single phase. Life Scienses 30, 1407-1422.
2. Линке Ю.Ю., Саханенко А. И. Асимптотически нормальное оценивание параметра в задаче дробно линейной регрессии. // Сибирский Математический Журнал, 2000, Т.41, N.l, С.150-163.
3. Линке Ю.Ю. Явное асимптотически нормальное оценивание параметра для некоторой многомерной задачи нелинейной регрессии. // Сибирский журнал индустриальной математики, 2000, T.III, N 1(5), С.157-164.
4. Линке Ю.Ю., Саханенко А. И. Асимптотически нормальное оценивание многомерного параметра в задаче дробно линейной регрессии. //Сибирский Математический Журнал. 20с. (сдано в печать).
5. Линке Ю.Ю., Саханенко А. И. Явное асимптотически нормальное оценивание параметров уравнения Михаэлиса Ментен. // Сибирский Математический Журнал. 28с. (сдано в печать).
6. Линке Ю.Ю. Асимптотически нормальное оценивание параметра в задаче дробно линейной регрессии. // VII Междунардная Конференция. Математика. Экономика. Экология. Образование. Ростов-на-Дону, 1999. Тезисы докладов, С. 117.
7. Линке Ю.Ю., Саханенко А. И. Асимптотически нормальное оценивание параметров в уравнении Михаэлиса Ментен. // Четвертый сибирский конгресс по прикладной и индустриальной математике (ИНПРИМ-2000). Новосибирск, 2000. Тезизы докладов. Часть III. С.16-17.
8. Линке Ю.Ю. Асимптотически нормальное оценивание параметра в задаче дробно линейной регрессии. //Материалы XXXV Мемсдунардной Научной Студенческой Конференции, Новосибирск, 1997, С.60-61.
9. Линке Ю.Ю. Двухшаговый метод асимптотически нормального оценивания параметра в задаче нелинейной регрессии. //Материалы XXXVI Междунардной Научной Студенческой Конференции, Новосибирск, 1998, С.70-71.