Задача мотивирования агента в модели агент-принципал с несколькими агентами тема автореферата и диссертации по математике, 01.01.09 ВАК РФ

Таразевич, Александр Валериевич АВТОР
кандидата физико-математических наук УЧЕНАЯ СТЕПЕНЬ
Москва МЕСТО ЗАЩИТЫ
2011 ГОД ЗАЩИТЫ
   
01.01.09 КОД ВАК РФ
Автореферат по математике на тему «Задача мотивирования агента в модели агент-принципал с несколькими агентами»
 
Автореферат диссертации на тему "Задача мотивирования агента в модели агент-принципал с несколькими агентами"

Московский государственный университет им. М.В. Ломоносова

Факультет вычислительной математики и кибернетики

На правах рукописи

РААЛ!

ас;; *

ТАРАЗЕВИЧ Александр Валериевич

ЗАДАЧА МОТИВИРОВАНИЯ АГЕНТА В МОДЕЛИ АГЕНТ-ПРИНЦИПАЛ С НЕСКОЛЬКИМИ АГЕНТАМИ 01.01.09 - дискретная математика и математическая кибернетика

АВТОРЕФЕРАТ диссертации на соискание учёной степени кандидата физико-математических наук

МОСКВА 2011

2 2 СЕН 2011

Работа выполнена на кафедре исследования операций Факультета вычислительной математики и кибернетики Московского государственного университета Имени М.В. Ломоносова

Научный руководитель:

кандидат физико-математических наук, доцент кафедры исследования операций Г.А. Белянкин

Официальные оппоненты:

доктор технических наук, профессор, зав. отдела информационно-вычислительных систем вычислительного центра РАН Ерешко Феликс Иванович

кандидат физико-математических наук, доцент кафедры математической кибернетики факультета ВМиК МГУ Романов Дмитрий Сергеевич

Ведущая организация:

Институт проблем управления РАН

Защита диссертации состоится 7 октября 2011 г. в 11 часов на заседании диссертационного совета Д 501.001.44 в Московском государственном университете имени М.В.Ломоносова по адресу:

119991, ГСП-1, Москва, Ленинские горы, МГУ, 2-й учебный корпус, факультет ВМК, аудитория 685. Желающие присутствовать на заседании диссертационного совета должны сообщить об этом за два дня по тел. 939-30-10 (для оформления заявки на пропуск).

С диссертацией можно ознакомиться в библиотеке факультета ВМК МГУ. С текстом автореферата можно ознакомиться на официальном сайте ВМК МГУ http://cs.msu.ru в разделе "Наука" - "Работа диссертационных советов" - " Д 501.001.44".

Автореферат разослан_сентября 2011 г.

Учёный секретарь диссертационного <

профессор /¿/У г^осу н п ТрИфонов

диссертационного совета ^

Общая характеристика работы

Актуальность:

В работе рассматривается модель с несколькими участниками, один из которых - принципал, а остальные - агенты. Принципал - лицо, обладающее некоторым количеством свободных средств. С их помощью он пытается стимулировать агентов на заключение некоторого оптимального числа договоров (с клиентами) с целью максимизации своей (принципала) собственной прибыли. Теория агента-принципала стала активно развиваться с 1970-х годов и сейчас применяется во многих контекстах. Одним из её первоначальных предположений было так называемое соображение индивидуальной рациональности, означающее, что участники не будут делать действие, которое заранее им невыгодно. Впоследствии данное предположение преобразовалось в ограничение совместимости стимулов (Incentive Compatibility), которое позволяет мотивировать агента на такое действие, которое выгодно принципалу, даже при условии того, что принципал не может верифицировать само действие. В классическом примере модели агента и принципала рассматривается поведение 2-х участников - одного агента и одного принципала. При этом принципал рассматривается как собственник предприятия, а агент - наёмный менеджер данного предприятия.

Модель агента и принципала является одним из приложений более общей теории контрактов. Теорией контрактов называется возникший в последние 20-30 лет раздел экономической теории, в котором рассматриваются модели с асимметричной информацией и ненаблюдаемыми действиями, а также с несовершенствами составления и исполнения контрактов. Теория контрактов базируется на тех же основных предположениях, что и неоклассическая экономическая теория, созданная в 1950-60 гг. (а именно, предполагает рациональность экономических агентов и широко использует теорию экономического

равновесия и теорию игр), однако существенно дополняет ее. В частности, в отличие от основных утверждений теории общего равновесия типа «если выполнены предположения о симметрии информации, совершенстве конкуренции и полноте контрактов и рынков, равновесие эффективно», теория контрактов объясняет, что будет, если эти предположения не выполнены. В этом смысле теория контрактов частично формализует идеи новой институциональной экономики. Так как теория контрактов — относительно молодая отрасль экономической теории, до сих пор нет стандартного содержания курса теории контрактов. Тем не менее, в последнее время наметилось формирование ядра этой теории. Общепринятым становится изложение четырех базовых моделей теории контрактов и их многочисленных расширений и обобщений. Как правило, курс также включает приложение базовых моделей или их сочетаний к проблемам, представляющим интерес: трудовые контракты, финансовые контракты, корпоративное управление, коррупция, теория фирмы и т.д.

Итак, базовые модели теории контрактов:

• Модель асимметричной информации, также известная как модель ухудшающего или неблагоприятного отбора, модель самоотбора (adverse selection, screening). В этой модели принципал предлагает агенту контракт, при этом в момент заключения контракта агент располагает информацией, недоступной принципалу (как правило, эта информация называется «типом» агента). После заключения контракта все действия и события наблюдаемы обеими сторонами. Проблема заключается в том, чтобы выявить информацию и предложить агенту оптимальный контракт (который, по определению, должен зависеть от его типа).

• Модель информативных сигналов (signaling). В отличие от предыдущей модели, агент может предпринять (наблюдаемое) действие до заключения контракта. Следовательно, агент может послать принципалу «сигнал» о своем типе. Естественно, для того, чтобы сигнал

4

был информативным, необходимо, чтобы он не был бесплатным для агента. Поэтому даже при наличии сигналов равновесие может быть неэффективно.

• Модель постконтрактного оппортунистического поведения (постконтрактного оппортунизма, оппортунистического поведения, субъективного риска, морального риска, moral hazard).

В данной модели асимметрия информации отсутствует в момент заключения контракта, но появляется после его подписания: агент выбирает действие (например, уровень усилий или инвестиций), которое принципал не наблюдает напрямую. Впрочем, принципал наблюдает реализацию случайных величин (например, своего дохода), распределение вероятности которых зависит от усилий агента. Наиболее интересны ситуации конфликта интересов, когда агент предпочел бы выбрать уровень усилий, не являющийся оптимальным для принципала. В этих случаях принципал вынужден использовать контракт для создания стимулов.

• Модель неполных контрактов (incomplete contracts).

В настоящей работе рассмотрены модели первого и третьего типа, модель информативных сигналов и неполные контракты не рассматриваются. При этом мы рассмотрим модели, в которых присутствуют два и более агента. Однако в целях упрощения мы откажемся от отсутствия риск-нейтральности агента.

Модель moral hazard является ключевой в теории контрактов. В этой

модели рассматривается вопрос, о том, как при помощи контракта

стимулировать выбор желаемого действия агентом, если само действие не

наблюдается принципалом. При этом имеет место ситуация конфликта

интересов: в отсутствие контракта (или других механизмов

стимулирования) агент выбрал бы действие, отличное от того, в котором

заинтересован принципал. Приложения данной модели чрезвычайно

широки: ее можно использовать и для описания отношений между

5

собственниками и менеджерами корпораций, между законодательной и исполнительной властью, между менеджером и рабочим и т.д. В российской литературе пока отсутствует устойчивый перевод термина moral hazard. Часто используется буквальный перевод, например субъективный риск или моральный риск. Более точно смысл передается терминами «оппортунистическое поведение» или «постконтрактный оппортунизм». По определению Оливера Уильямсона, оппортунистическое поведение также включает в себя ситуации с асимметричной информацией в момент заключения контракта (рассмотренные выше модели неблагоприятного отбора и сигналов). Однако, в более поздней литературе эти понятия разделены, модели предконтрактного оппортунизма (модели с асимметричной информацией), как правило, не рассматриваются в качестве частного случая оппортунистического поведения, а термин «оппортунистическое поведение» используется в качестве синонима «постконтрактного оппортунизма», тем более что во многих моделях и особенно обобщениях и приложениях моделей moral hazard отсутствует контракт как таковой — его роль играет рыночная конкуренция, права собственности и т.д. Строго говоря, эти модели не относятся к классу, рассматриваемому в данной главе, однако, их также принято называть моделями moral hazard, так как в них используются ключевые идеи теории moral hazard. Поэтому мы будем использовать все три термина — «moral hazard», «оппортунистическое поведение», «постконтрактный оппортунизм» как синонимы.

Рассмотрим структуру данной модели: Тип агента известен и верифицируем. Имеет место следующая последовательность действий:

1. Принципал предлагает агенту контракт I(Y): если имеет место результат Y (например, рыночная капитализация, прибыль, объём продаж), принципал платит агенту I.

2. Агент подписывает контракт или уходит.

3. Агент выбирает действие а, ненаблюдаемое или неверифицируемое.

4. Принципал наблюдает Y и платит зарплату I(Y).

• Функция распределения Y зависит от а.

• Выигрыш принципала зависит от Y и I (например, х - I(Y)).

• Вышрыш агента зависит от I и а (например, U(I(Y)) - С(а), где U(I(Y)) — полезность потребления, С(а) — издержки усилий).

Модели оппортунистического поведения описывают и ситуации при найме на работу, заключении подрядов на оказание услуг, в т.ч. госзаказов, на рынке страхования, то есть ситуации, в которых большую роль играет распределение риска. Поэтому очень важно сделать предположение о том, насколько агент предпочитают избавляться от риска. В большинстве подобных моделей предполагается, что агент больше боится риска, чем принципал. Как правило, принципал максимизирует ожидаемый доход (то есть нейтрален к риску), а функция полезности агента вогнута.

Несмотря на то, что вышеупомянутые четыре модели становятся классическими в теории контрактов, зачастую и они подвергаются критике. Во всех основных трёх моделях (moral hazard, adverse selection и signaling) упор делается на создание явных и непосредственных стимулов для агента, который, в свою очередь, предполагался максимизирующим собственный доход. Однако если мы обратимся к реальным контрактам, то часто мы увидим, во-первых, что часть вознаграждения агента часто выплачивается в виде премий, которые, следуя букве подписанного контракта, принципал выплачивать не обязан, а во вторых, что зарплата агента выше, чем минимальный уровень, необходимый для получения его согласия на работу. Эти два обстоятельства послужили толчком для развития новых направления в теории контрактов, еще не ставших классическими.

Как уже было описано выше, в данной работе применяются как модели неблагоприятного отбора, так и модель moral hazard. Первые две главы рассматривают одно из применений модели неблагоприятного отбора. В данной модели в её классическом виде обычно имеется один принципал и один агент. Предполагается следующая последовательность событий. Сначала агент узнает некоторую информацию (свой «тип»). Принципал не обладает этой информацией и предлагает агенту набор контрактов. Агент выбирает один из предложенных вариантов или отказывается от всех. Контракт выполняется. По существу, задача заключается в поиске равновесия по Штакельбергу.

Третья глава рассматривает одно из приложений модели постконтрактного оппортунизма (moral hazard). В отличие от работы Холмстрона, в данной работе принципал видит результат каждого агента. Однако в силу того, что принципал не знает типа агента, он вынужден предлагать один и тот же контракт всем агентам. Мы покажем, что в этом случае принципал непременно понесёт потери, связанные с отсутствием информации о типе агента.

Цель работы:

Целью данной работы является построение оптимальных решений для агента и принципала в аналитическом виде или, где это невозможно, указание алгоритма, приводящего к оптимальному решению. Исследования в первых двух главах проводятся для детерминированного случая, т.к. когда по результату агента можно точно сказать, какое усилие он приложил. Для этих моделей удалось найти решение в аналитическом виде. В третьей главе рассматривается модель со случайным исходом, т.е. когда результат агента является случайной величиной, однако зависит от его усилий. В этом случае удалось значительно упростить задачу в первоначальном виде, а также указать алгоритма её решения с помощью методов решения задач линейного программирования.

Методика исследования:

Для решения задач первой и второй главы используются методы теории игр, а также теории контрактов, изложенные в [1]. В третьей главе к этим методам добавляются методы решения задач линейного программировании (симплекс-метод). Также проводилось численной решение задач с помощью программирования в системе Visual Studio.

Научная новизна:

Все основные результаты диссертации являются новыми и состоят в следующем:

1. Рассмотрены детерминированные модели с тремя участниками -принципалом и двумя агентами - и различными видами функции выигрыша, найдены оптимальные стратегии и максимальная прибыль, которую может получить принципал, для модели с произвольной стимулирующей схемой, возрастающей стимулирующей схемой и выпуклой схемой.

2. Доказано, что ограничение на неубывание мотивационной схемы не несёт никаких потерь для принципала, поскольку доказано, что для оптимальной точечной схемы существует возрастающая схема, приносящая ту же прибыль принципалу. Более того, существует строго возрастающий и непрерывный вариант такой схемы.

3. Приведён пример, для которого найдены оптимальная точечная, неубывающая и выпуклая схемы, и который доказывает существование варианта, когда прибыль принципала уменьшается при использовании им выпуклого варианта схемы.

4. Подобные результаты были доказаны и для случая с N агентами. Однако в данном случае необходимым условием оказалось упорядочение производных функций нежелания работать агентов по их типам.

5. Для модели со случайным исходом и двумя агентами было

установлено следующее:

- Для любого количества желаемых принципалу (индуцируемых) встреч, оптимальная схема устроена так, что агент низкого типа получает нулевую прибыль

- Найдено достаточное условие того, что оптимальная схема индуцирует не меньшее количество встреч для агента высокого типа, чем для агента низкого типа

- И, наконец, задачи, в которых п>т+2, были сведены к задаче, в которой п=т, где ш и п - целевые индуцируемые усилия агентов.

Практическая значимость:

Результаты диссертации имеют теоретический характер. Однако в дальнейшем они могут быть развиты в практическом направлении (прежде всего, по части моделей со случайным исходом). Все описанные методы имеют строгие математические обоснования и в то же время успешно применены к анализу данных конкретных моделей.

Публикации:

Материалы диссертации опубликованы в 4 печатных работах ([1]-[4]), из них 1 статья опубликована в журнале, включенном в перечень ВАК ([!])•

Структура и объем диссертации:

Диссертация состоит из введения, трех глав, и списка литературы, содержащего 17 наименований. Общий объем диссертации 101 страниц.

Содержание работы

Первая глава посвящена исследованиям модели с двумя агентами и одном принципалом, причём существует пропорциональная зависимость между усилием агента и его результатом. Таким образом, модель является детерминированной. Принципал - лицо, обладающее некоторым

количеством свободных средств. С их помощью он пытается стимулировать агентов на заключение некоторого оптимального числа договоров (с клиентами) с целью максимизации своей (принципала) собственной прибыли. Далее будем считать, что речь идёт о страховании, и в роли агентов будут страховые агенты, в роли принципала -руководитель агентства. Прибыль от каждого полиса будем считать постоянной. Для того чтобы заключить М полисов и получить прибыль У, агенту необходимо провести некоторое количество встреч N. Суммарную прибыль будем считать пропорциональной количеству проведённых встреч, причём коэффициент пропорции для каждого агента будет разным. Назовём этот коэффициент эффективностью агента. Помимо эффективности агенты обладают ещё одним свойством - своей трудоспособностью. Пусть усилие, необходимое для проведения N встреч будет равно С(Ы), причём эта функция будет также различной для разных агентов. Логично предположить, что С(Ы) является возрастающей и выпуклой функцией, и что С(0)=0. Также предположим, что отношение функций СОО для разных агентов будет соотноситься с их эффективностью. Назовём агента, обладающего меньшей эффективностью, агентом низкого типа, а другого - агентом высокого типа. Будем считать, что для любого количества встреч агенту низкого типа необходимо приложить большее усилие, чем агенту высокого типа. Пусть эффективность агента низкого типа равна К1, высокого - К >К . Усилие, которое необходимо агентам для проведения N встреч, равно

С1(Ю для агента низкого типа и для агента высокого типа, причём выполнено с"(0) = с'(0)=0 и у^>0 СН(Ю<СЧЮ. ДаЛее, принципал не знает, какое количество встреч провели агенты, он знает лишь ту прибыль, которую принёс каждый из них. Также принципал не знает типы агентов. Поэтому стимулирующая схема (контракт) может зависеть только от той прибыли, которую принесли агенты. Обозначим эту схему как функцию Также будем обозначать низкий тип агента как Ь, высокий - как Н. Когда речь идёт об агенте любого типа (либо обоих типов), то будем обозначать его как А. Предположим, что полезность выигрыша агентов и принципала равна самому выигрышу. Поэтому выигрыш агента типа А (высокого либо низкого), который провёл N

встреч, равен КМ-К*)-СЛ(Ы)_ Ддд хого> чтобы агент согласился на контракт, необходимо, чтобы КМ-КЛ)-СА(1\0>0 Выигрыш принципала равен *,Н+УД-/(У")-/(1'Н)> Мы уже предположили, что функции с

выпуклые. Предположим также, что дифференцируемы всюду на (0,+°°) и дифференцируемы справа в точке 0.

Также предположим, что для обоих агентов ^ <1(это условие необходимо для существования приемлемых для агентов контрактов), и

что

Итак, задача принимает вид:

^•К1- /(У') + Щ") -> шах

при условии, что прин ципал не знает тип агентов и количество встреч, и

/(7й)-С" (#")-> тах

1(У1)-С\Ы1)-+ тах 0,

где С1 (ЛО, С"(Л0 - выпуклые возрастающие дифференцируемые на (0,-но) функции,

ЭЙ" : (с"(Л?"))' > 1, : (с^))' > 1,3(с"(0))'+ < 1, 3(с'(0))'+ < 1,

у//>о с" (Ы) < сЧло, с" (0)=с^о)=о, л:" ^ к" ■ Рассмотрим схему без ограничений на её вид.

Теорема 3.1. Для любой стратегии 1(У) такой, что агент низкого типа выберет действие К а агент высокого типа - стратегия вида:

1(ХН), еспиУ = УН -К"

1\У)=Щ1), еслиУ = У1 = И1 ■ К1

0, еслиУ*У\У*УИ ру

приведёт к тому же выигрышу принципала.

Таким образом, для любой мотивационной схемы существует эквивалентная ей точечная. Далее, для решения задачи будем действовать по следующему алгоритму. Для любой пары У" и У1 результатов агентов высокого и низкого типов соответственно найдём точечную схему 1(У) такую, что агенты высокого и низкого типов выберут соответственно

уН у1

стратегии к и К _ такую схему назовем индуцирующеи* и У1, а сами результаты - целевыми. Затем найдём У"' и У1, реализующие тм[Ун+У1-1(Ун)-1(У'-)]

Разделим целевые результаты ^ и Уь на следующие классы:

Г ,У >0,У >0 . это СЛуЧай) когда оба агента соглашаются на контракт и им выгодно показать разный результат.

Ун = У1 > 0 - случай, когда оба агента соглашаются на контракт и показывают одинаковый результат.

У" >0,У1 ~ ОлибоУ1 > 0,УЯ = 0_ СЛучад) когда одному агенту выгодно отказаться от контракта, а другому — согласиться у" = у1 = 0.0ба агента отказываются от контракта Рассмотрим сначала целевые результаты агентов из класса 1. В этом случае оптимальным контрактом будет > > 0 малы):

/'00-

Сн &)-Сн &) + С1(~) + если У = У = М" ■ К"

Алл.

+ еслиУ = Уь -К1

К.

0, если У* У1, У*УН

(3.3)

Основная теорема для этого класса решений:

Теорема 3.2. Оптимальный контракт, индуцирующий результаты агентов из класса 1), существует тогда и только тогда, когда множество, определенное ограничением

уН у1 уН уЬ

с" (!-_)-с'> с" (-—) -С (—

К К К К не пусто. При этом он имеет вид (3.3)

уН _ уН' у£ — V1"'

при 1 , 1 , где

У1+УН - С" (—) + С" -2-С1 (-р^-) -> тах

Прибыль принципала при его использовании равна

Решение классов 2) - 4) находятся простыми оптимизационными методами. Основная теорема для точечных схем: Теорема 3.3 Прибыль принципала при использовании оптимальной

точечной ■ схемы равна 1 >, где

РК = Г+Г -Сн(^г)+Сиф)-2-С'-ф-2.е,-е2

у1? уИ'

» *

Для неубывающих схем основной результат состоит в следующих теоремах:

Теорема 4.1. Для любой точечной оптимальной стратегии принципала

уН' > у£*

вида (3.1) справедливо

Теорема 4.2. Для любой оптимальной стратегии принципала вида (3.1) существует неубывающая стратегия, приносящая ту же прибыль принципалу

Вид оптимальной схемы для возрастающих схем меняется с точечной схемы на ступенчатую, при этом выигрыш принципала не изменится. Также существует непрерывный и строго возрастающий вид схемы, которые также не несут потерь принципалу в сравнении с точечной схемой.

На практике более высокие результаты всегда оплачиваются не менее щедро, чем низкие. Поэтому в работе также рассмотрен случай, когда функции вознаграждения агентов ограничены классом выпуклых и дифференцируемых на всём интервале (Ф+^за исключением, быть может, конечного числа точек функций. Для этого класса ограничений поиск оптимальных схем можно ограничить классом кусочно-линейных функций, о чём говорит следующая лемма:

Лемма 1. Для любой выпуклой стимулирующей схемы 1(7), индуцирующей результаты У" и У1 из класса 1 для агентов высокого и низкого типов, существует схема вида: О ,У<У°

/430=

а-У+Ь,У° <УйУ' с-У+с1,У>Ух

(5Л)

которая также индуцирует У" и У1" и даёт тот же результат принципалу. Для любой выпуклой стимулирующей схемы 1(У), индуцирующей результаты из других классов, существует схема вида: Го ,УйУ°

\а-У+Ь,У>Г

которая индуцирует те же результаты агентов и даёт тот же результат принципалу.

Поиск оптимальной схемы для этого класса функций значительно упрощается. Для описания оптимального решения для случая выпуклой схемы определим сначала значения: У", У"' решают задачу:

1 V1 1 у"

к' к к" (кн)

РЯ[ = ^ - 2 • ф+± • С^ф ■ +¥"'-С" ф)+С»ф-е2

1Г-Г -к" (с( £>) '=1 РК=уГ _снф_е

У

Основная теорема определяет максимальную прибыль, которую получает принципал: Теорема 3.3 Прибыль принципала при использовании оптимальной тзхЬ,

выпуклой схемы равна 1 >.

Вторая глава посвящена исследованию детерминированного случая, когда есть п агентов. Как и прежде, каждый агент типа г обладает своей эффективностью К'. Упорядочим номера типов агентов таким образом, чтобы соответствующие эффективности были упорядочены по возрастанию, т.е. . Усилие, которое необходимо агенту I

для проведения N встреч, равно Аналогично случаю с двумя

т V/ С'(0)=0 „ Ш>0 С"(ЛП<С"ч(Л0<...<С'(Л0 агентами предположим, чтоу' ^^ и 4 ' к ' •

ш > о (С"(Ло)' <(С"-'(Ло)' <... <(сЧло)'

Предположим также что ' * ' 4 ' •

Задача принимает вид:

£Г-£/(Г)->тах м ы

при условии, что принципал не знает типов агентов и количество встреч, и 1(Х')-С' (Ы') -> юах

/(Г)-С'(ЛГ')^ О,

где С'(Ы) - выпуклые возрастающие дифференцируемые на (О, -и») функции,

Ш'■.[с'ф,)}>\, Э(С'(0))'+<1,

1Ы>О С{Щ<Сп-х(,И)<...<С\Щ, 41 С'(0) = 0, к'гк"-1-*...^!?

После доказательства оптимальности точечной схемы (аналогично случаю с двумя агентами) доказывается теорема об упорядоченности результатов:

Теорема 2.3 Для любой оптимальной стратегии 1(У), индуцирующей

результаты агентов ^ ^.....^ , справедливо:

У1<.Уг<....<.У

Следующая теорема указывает оптимальную схему для этого случая: Теорема 2.4. Оптимальная стратегия принципала 1 индуцирующая результаты агентов 0 ¿У1 ¿У2 й...йУ" (где ¡-тип агента), имеет вид:

+ если У = У" =И"-К"

М >1 >2

§ С' {У' / К') + § Б, - § С' (Ум /&), если У = У""1 = ЛГ"1 ■ К" , >1 у-2

(!-) = •

С1 (У1 I К1)+С2 (Уг I К2) - С2 (У11 К-!)+е, + е2, если У = У1 = Л^1 • Л:1 С\УЧк1) + еи еслиУ = У1 -К1

О, еслиУфУ", У.....У*У' (3 2)

Для возрастающей схемы доказывается результат, аналогичный случаю с двумя агентами:

Теорема 3.1. Для любой оптимальной стратегии принципала вида существует неубывающая стратегия, приносящая ту же прибыль принципалу

Третья глава посвящена изучению модели с двумя агентами и принципалам для случая, когда результат агента - случайная величина. Модель с п агентами в данном случае не рассматривается ввиду её

16

большой сложности, однако даже для случая двух агентов решение в аналитическом виде найти не удалось. Основным результатом является значительное упрощение исходной задачи, а также указание алгоритма её решения. В целях наглядности рассуждений, мы предполагаем в этой главе, что при существовании альтернативного источника дохода, дающего агенту тот же выигрыш, что контракт с принципалом, агент будет действовать в пользу принципала. Итак, пусть выигрыш агента типа А (высокого либо низкого), который провёл N встреч, равен

1{УА)~СА(Ы)_ Результат агента УА - случайная величина, распределённая по биномиальному закону, таким образом, выигрыш агента А также является случайной величиной. Поэтому при принятии решения о заключении контракта, агент руководствуется своим средним

(ожидаемым) выигрышем, равным

Сделаем обозначение математическое ожидание функции ^00,

где У - случайная величина, имеющая биномиальное распределение с параметрами (п,р). Цель принципала - максимизировать свой ожидаемый выигрыш, равный

1-1. м

Для того, чтобы агент согласился на контракт, необходимо, чтобы

Ш: Е?'(1(Г))-СЛ(Ю>0

Для того, чтобы решить задачу, можно действовать по прежнему алгоритму. Сначала для каждой пары значений тип находятся значения 1(к) такие, что агент высокого типа проведёт п встреч, а агент низкого типа - т. 1(к) при этом минимизируют потери принципала на вознаграждение агентам, необходимые для индуцирования тип. Затем, принципал может максимизировать свою прибыль, перебирая различные значения тип. Таким образом, основным этапом в решении исходной задачи является нахождение схем 100, индуцирующих конкретные значения проведённых агентами встреч типе минимальными потерями для принципала. Задачу минимизации потерь принципала при индуцировании тип можно описать в виде задачи линейного программирования:

Vr*n, rümaxfm.n} е;(I(Y))äЕ'г(/(7))-С"(г) + С"(и)

wüxtm.{m,n] ££ (/(Г))>^(/(П)-+ С1 (и) (2.2) E!(I(Y))zCH(n) ЕХШ^СЧт)

Основные результаты этой главы следующие:

Лемма 1. Для оптимального решения задачи (2.2) справедливо, что либо = шб0 El{I(Y)) = CL(m)

Данная лемма означает, что кто-то из агентов в результате контракта получит нулевую прибыль. В детерминированном случае доказано, что этим агентом обязательно окажется агент низкого типа, который при этом проведёт меньшее количество встреч. Однако в данном случае ситуации несколько сложнее и для доказательства аналогичного факта для модели со случайным исходом требуются дополнительные ограничения.

Лемма 2. Пусть для некоторой стратегии принципала 1(¥), числа 0<р<1 и некоторого числа U выполнено:

ДО) s и, Ef(KY))s и,..., Е'МП * и (либот > и, E'(l{Y)) ä и,..., Е'МП ;> UJ

Тогда длялюбого ^ Р выполненоЕ^^и

Эта лемма является одной из основных лемм данной главы и используется в доказательстве практически всех последующих результатов. Далее индуцируемые тип разбиваются на классы в зависимости от их соотношения друг с другом. Сначала рассматривается класс т>п.

Лемма 3. Если т>п, то для оптимального решения задачи (2.2) выполнено:

E:{UY)) = CL{m)

£„'(/(Г)) ^ CL(m)-CH(m)+CH(n)

E<MY))ZCL(n)

Этот результат является аналогом положения о нулевой прибыли агента низкого типа в детерминированном случае, однако доказательство приводится для m>n.

Далее рассматривается случай, когда m=n. Задача формулируется следующим образом:

EUHY)) + E:U(Y))-> min

¿г(/(П)-С(т)й max{o, 7(0), £,'(/(Г))-С"(1).....£„'.,(W)-Cff(m-1)}

^(W)-Ci(m)Smax{0,/(0),£1'(/(iO)-Ci(l).....

(2.3)

Теорема \.Для оптимального решения задачи (2.3) справедливо:

ЕЦ1(Г)) = С\т)

Целевая функция удовлетворяет соотношению:

С"(т) + С» < Е'ЖГ)) + Elm й^г-С1(т) + С\т)

Ч

Теорема снова устанавливает, что прибыль агента низкого типа равна нулю уже для случая ш=п.

Далее рассматривается случай, когда n=m+l. Как оказалось, этот случай принципиально отличается от случая, когда "£« + 2. в теореме ниже доказывается, что результат агента низкого типа и в данном случае также равен нулю.

Задача формулируется следующим образом:

KM(Y)) - с">+1) > max {о, Е>(1(Г))-С"(1).....(1(У)) - С" (т)}

El (ДУ)) -C'(m)ämax{0, £,' (/(Г)) - С'О).....El, (1(Г)) -CL(m-1), Е^ (1(Г))-CL(m +1)} (2J)

Теорема 2. Для оптимального решения задачи (2.5) справедливо:

Е<(1(.Г)) = С1(т), £„>+,(/(У))>Сн(т+1)

Случай же, когда пъ.т +2 оказался несколько сложнее в плане доказательств. Для их проведения понадобилось довольно жесткое ограничение, приведённое ниже:

Лемма 4. Если для заданных p,q, с" (N) выполнено:

+ Тогда для оптимального решения задачи ОшибкаI Источник ссылки не найден, будет справедливо:

и

1) El(I(Y)) = С'(т)

2j £ЛДП) = тах{0,£,'(/(Г))-С(1).....Е^1(У))-СИ(т)}+СИ(п)

Резюмируя результаты, приведённые выше, получаем следующий алгоритм решения задачи. Пусть на входе нам известны функции усилий С"(я) и С'"(т) _ СуХИ> в изначальной формулировке задача следующая: П'р-Е>Л1(У))+т-д-Е1{1(Х)) =

*-р-%С1.-Рк -Ц-рТ* -Щ+т-д+^С^ .(1-дГк •/(*)-> шк

при условии,что принципал не знает количество встреч, тип решают задачи:

£ С,' ■ / ■ (1 - р)-' • 1(к) - С» -> тах 1.0 "

^ск-р1-(1-рУ'к-1(к)-сн(п)г о 1.0

¿с»-д1 .(1 -яГк -/(А)-С»-тах

Г"? «

Л-0

1-0

Сначала можно ограничить множество перебираемых тип значениями:

тйт :(СЛ(т))'+ >д

Причём такие т >" существуют и конечны, т.к. иначе бы не существовало оптимальное решение задачи (самым выгодным решением было бы бесконечное количество встреч).

Таким образом, алгоритм прообразовывается в решение для каждого тйт',п<,п задач.

ЕЦ1<Г)) + ВЦЦГ))-> тш

Чг*п, г ^ тах{т,и} (/(К)) > (/(Г)) -С"(г) + Сн (п) тах{т,и} *^('<7))-С1» + С^т)

Ет)±С1(т)

Далее алгоритм состоит из двух шагов:

Шаг 1) для каждого решить пару задач:

1гФп, г < тах{т,и} С" (и) > £,'(/(/)) - С" (г) + С" (и)

ис5тах{т,и} £< (7(К)) ^ К (/(/)) - С1 (иО + С1 (и) £„'(/(У)) = С»

и

E;(I(Y)) -> min

Vr* л, r <, raax {m,n} E%(!(Y)) Z Ef{I(Y))~CH{r) + С"(и)

Vwüm,wiшах{™,п} С'(т)üEl(I(Y))-CL(w) + CL(m)

Ef„{I{Y)) г С" (n)

E<m(I(Y)) = CL(m)

Причём для всех n<,m+1 достаточно решения только второй задачи.

Затем из двух решений выбрать то, которое реализует минимум

Задача сильно упрощается, если выполнено:

( т \

Уот.и (т-п)-р>\£—1 ■С1(т) + Сн(т)-Сн(п) \Ч

В этом случае достаточно рассмотреть только вторые задачи и только для случая, когда " ^ т.

Шаг 2) Из всех решений I(Y), найденных в предыдущем пункте для каждого тип, выбрать то, которое максимизирует прибыль принципала:

п-р-^Ск„-рк -m + m-q + ^Cl-q*ах

t-i "

Несмотря на то, что рассмотрена модель только с двумя агентами, нахождение оптимальной схемы в данной модели является значительно более сложной задачей, чем в детерминированном случае. Решение в явном виде не найдено, однако указан алгоритм нахождения оптимального решения.

ПУБЛИКАЦИИ ПО ТЕМЕ ДИССЕРТАЦИИ:

1. A.B. Таразевич, Анализ различных видов оптимальных контрактов в задаче стимулирования агентов принципалом в модели с двумя агентами // Вестник Московского Университета, вычислительная математика и кибернетика, 2010, №. 3, стр. 44-50.

2. Г.А. Белянкин, Т.В. Белянкина, А.В.Таразееич, Математическое моделирование оптимального поведения принципала и агента при отсутствии ограничений на функцию вознаграждения // Игровые постановки задачи "агент-принципал" для разных условий информированности игроков, сборник статей, 2011 - М: МАКС-Пресс, 2011, стр. 4-9

3. И.С.Афанасьева, Г.А. Белянкин, Т.В. Белянкина, А.В.Таразееич, математическое моделирование оптимального поведения принципала и агента при различных ограничениях на функцию вознаграждения // Игровые постановки задачи "агент-принципал" для разных условий информированности игроков, сборник статей, 2011 - М: МАКС-Пресс, 2011, стр. 10-21

4. Г.А. Белянкин, Т.В. Белянкина, А.В.Таразееич, математическое моделирование оптимального поведения принципала и агента при различных ограничениях на

21

функцию вознаграждения в модели с п агентами // Игровые постановки задачи "агент-принципал" для разных условий информированности игроков, сборник статей, 2011 -М: МАКС-Пресс, 2011, стр. 23-31

В работе [1] Таразевичем A.B. рассматривается детерминированная модель с двумя агентами и принципалом, а также три различных ограничения на функцию мотивации агента - точечная, возрастающая и выпуклая функция. Доказывается, что любая мотивационная схема может быть заменена на точечную без потери эффективности схемы. Также доказано, что ограничение на возрастание схемы не несёт никаких потерь для принципала, в отличие от выпуклой схемы, которая в большинстве ситуаций даёт худший результат.

В работе [2] Таразевич у A.B. принадлежит разработка и формализация модели поведения агента в условиях зависимости его результата от случайных факторов.

В работе [3] Таразевичу A.B. принадлежит разработка первоначальной модели, а также основных принципов решения подобных задач для различных видов мотивационных схем.

В работе [4] Таразевичу A.B. принадлежит алгоритм решения задачи мотивирования агентов в детерминированной модели с N агентами.

Напечатано с готового оригинал-макета

Издательство ООО "МАКС Пресс" Лицензия ИД N 00510 от 01.12.99 г. Подписано в печать 05.09.2011 г. Формат 60x901/16. Усл.печл. 1,0. Тираж 100 экз. Заказ 366. Тел. 939-3890. Тел./факс 939-3891. 119992, ГСП-2, Москва, Ленинские горы, МГУ им. М.В. Ломоносова, 2-й учебный корпус, 527 к.