Устойчивость к ошибкам это

Устойчивость
к ошибкам— это мера способности системы
программного обеспе­чения продолжать
функционирование при наличии ошибок.

Обеспечение
устойчивости программы к ошибкам
означает, что в программе содержатся
средства, позволяющие локализовать
область влияния отказа программы, либо
уменьшить его неприятные последствия,
а иногда предотвратить катастрофические
последствия отказа. Однако, эти подходы
используются весьма редко (может быть,
относительно чаще используется
обеспечение устойчивости к ошибкам).
Связано это, во-первых, с тем, что многие
простые методы, используемые в технике
в рамках этих подходов, неприменимы в
программировании, например, дублирование
отдельных блоков и устройств (выполнение
двух копий одной и той же программы
всегда будет приводить к одинаковому
эффекту — правильному или неправильному).
А, во-вторых, добавление в программу
дополнительных средств приводит к её
усложнению (иногда — значительному),
что в какой-то мере мешает методам
предупреждения ошибок.

59. Раскрыть понятие динамической избыточности

Истоки
концепции динамической избыточности
лежат в проектировании аппаратного
обеспечения. Один из подходов к
динамической избыточности — метод
голосования.
Данные об­рабатываются
независимо несколькими идентичными
устройства­ми, и результаты сравниваются.
Если большинство устройств выработало
одинаковый результат, этот результат
и считается правильным. И опять, вследствие
особой природы ошибок в про­граммном
обеспечении ошибка, имеющаяся в копии
программ­ного модуля, будет также
присутствовать во всех других его
ко­пиях, поэтому идея голосования
здесь, видимо, неприемлема. Предлагаемый
иногда подход к решению этой проблемы
состоит в том, чтобы иметь несколько
неидентичных копий модуля. Это значит,
что все копии выполняют одну и ту же
функцию, но либо реализуют различные
алгоритмы, либо созданы разными
разра­ботчиками. Этот подход
бесперспективен по следующим причинам.
Часто трудно получить существенно
разные версии модуля, выполняющие
одинаковые функции. Кроме того, возникает
не­обходимость в дополнительном
программном обеспечении для организации
выполнения этих версий параллельно или
последо­вательно и сравнения
результатов. Это дополнительное
программ­ное обеспечение повышает
уровень сложности системы, что, ко­нечно,
противоречит основной идее предупреждения
ошибок — стремиться в первую очередь
минимизировать сложность.

Второй
подход к динамической избыточности —
выполнять эти запасные копии только
тогда, когда результаты, полученные с
помощью основной копии, признаны
неправильными. Если это происходит,
система автоматически вызывает запасную
копию. Если и ее результаты неправильны,
вызывается другая запасная копия и т.
д.

60. Аналитические модели надежности

Модели
надежности программных средств (МНПС)
подразделяются на аналитические
и эмпирические.
Ана­литические модели дают возможность
рассчитать количествен­ные показатели
надежности, основываясь на данных о
поведении программы в процессе
тестирования (измеряющие и оцениваю­щие
модели).

Аналитическое
моделирование
надежности
ПС включает
че­тыре
шага:

1)

определение предположений, связанных
с процедурой тестирования
ПС;

2)

разработка или выбор аналитической
модели, базирующейся
на предположениях о процедуре тестирования;

3)

выбор параметров моделей с использованием
полученных данных;

4)

применение модели — расчет количественных
показателей надежности
по модели.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #


Автор:

Laura McKinney


Дата создания:

2 Апрель 2021


Дата обновления:

2 Июнь 2023

Устойчивость к ошибкам: 3 + 6 советов для большего удовольствия (с собой) - Карьера

Устойчивость к ошибкам: 3 + 6 советов для большего удовольствия (с собой) — Карьера

Содержание

  • Определение: что такое отказоустойчивость?
  • Какие ошибки?
  • Больше отказоустойчивости вместо того, чтобы перестраховаться
  • Ошибки других: Как ты глуп!
  • Притча об отказоустойчивости
  • Советы для большего прощения
  • Устойчивость к ошибкам в компаниях
  • Устойчивость к ошибкам между собой
  • Что читали об этом другие читатели

Термин «отказоустойчивость» имеет два значения. В технологиях он описывает свойство, при котором системы работают, несмотря на входные, программные или аппаратные ошибки. В отношении людей это означает не реагировать со злым умыслом или насмешками на возможные ошибки. Скорее, отказоустойчивость — это способность терпеть собственные ошибки (и ошибки других), принимать их и расти вместе с ними. Многим это сложно. Почему пора переосмыслить …

Определение: что такое отказоустойчивость?

Педагоги и психологи используют термин отказоустойчивость в двух контекстах:

  • Отказоустойчивость как способность человекаИгнорировать собственные ошибки, а также неудачи и неудачи других, и терпеть их. Ошибки воспринимаются не как принципиально плохие, а как повседневная часть жизни.
  • Отказоустойчивость как часть культуры отказов. Например, в обществе, в семье или в компании. В образовании, например, важно обеспечить конструктивное исправление ошибок в школах. Основное внимание уделяется обучению на ошибках.

С прощением связаны терпение, терпение, сочувствие, а также готовность идти на риск. Те, кто терпят ошибки, более склонны рисковать и сталкиваться с риском неудачи.

Какие ошибки?

Ошибки — это отклонения от ранее определенной цели или стандарта. В зависимости от дисциплины существует множество определений и объяснений:

  • Педагогика: Для педагога Германа Веймара намерение было на первом плане, когда произошла ошибка. Он назвал умышленные действия «обманом» или «подлогом». Если ошибка произошла случайно, это была «ошибка» или «ошибка по неосторожности».
  • Психология: Психология знает такие термины, как девиантное поведение, «отклонение», «дефицит» или «дисфункция» — все это синонимы ошибок.

Что бы вы ни называли ошибками, они случаются. Никто не безупречен. Каждый терпит неудачу однажды. Большинству людей легче терпеть мелкие ошибки, чем большие. Ведь часто они имеют разные последствия. Однако у них есть одна общая черта: ошибки — двигатель эволюции. Именно отказоустойчивость позволяет людям всех культур учиться на ошибках и избегать новых.

Больше отказоустойчивости вместо того, чтобы перестраховаться

Совершать ошибки, падать, учиться и снова вставать — немногие в этой стране могут сделать это так легко. И последнее, но не менее важное: отказоустойчивость — это культурная проблема. В Германии нам нравится перестраховаться. «На ошибках умнеют», — гласит пословица. В виде умнее но относится в первую очередь к тем, кто не допускает ошибок. Метод проб и ошибок — неприемлемая стратегия. Любой, кто становится самозанятым в этой стране и не делает этого, быстро считается неудачником, а может быть, даже «неудачником».

Совсем иначе в США. В Америке толерантность к ошибкам значительно больше. Любой, кто осмелится попробовать это там, получит высокую оценку за необходимое ему мужество, а не за результат. Если не получится, признание не пострадает, наоборот: хороший предприниматель — это тот, кто уже обанкротился. В конце концов, у него сейчас много ценного опыта — и он больше не совершает этих ошибок.

Ошибки других: Как ты глуп!

Как бы сложно это ни звучало: мы любим пинать тех, кто уже находится на земле. За этим кроется еще одна причина отсутствия отказоустойчивости: это заставляет нас чувствовать себя лучше.

Кто указывает на чужие ошибки, возвышается над этим и повышает самооценку: «Какой дурак! Такая бутылка! Со мной этого не случилось бы! »Особенно те, кто часто подвергался унизительной критике за свои ошибки, используют возможность почувствовать себя хорошо и укрепить свою уверенность в себе. С другой стороны, собственные ошибки серьезно подрывают самооценку и эго.

Результат: собственная неудача замалчивается, скрывается и хранится в секрете. Все более широко отмечаются и обсуждаются неудачи и ошибки других. Следующая притча ясно показывает, какова местная терпимость к ошибкам.

Притча об отказоустойчивости

Учитель математики на своем уроке пишет на доске несколько задач: 2 × 9 = 18; 3 х 9 = 27; 4 х 9 = 36; 5 х 9 = 45; 6 х 9 = 54; 7 х 9 = 63; 8 х 9 = 72; 9 × 9 = 91. Сначала раздается легкий смешок. Затем смеются некоторые студенты. Ученик отвечает, чтобы указать учителю на очевидную ошибку: «9 × 9 — это 81, а не 91!» — говорит она. Теперь это замечает и последний в комнате. Все смеются.

Учитель улыбается и ждет, пока все успокоятся и замолчат. Затем он говорит: «Я сделал эту ошибку специально, чтобы преподать вам гораздо более важный урок сегодня. Я правильно решил семь из восьми задач и допустил только одну ошибку. Вместо того, чтобы радоваться моим успехам, все посмеялись над одной ошибкой. Сегодня мы живем в обществе перформанса. Как только кто-то совершит ошибку, его будут публично высмеивать, унижать и обижать только за одну ошибку. Все, что было правильно заранее, забывается. Большинство из них делают гораздо больше правильного, чем неправильного ». Затем учитель берет свои вещи и уходит из класса. В комнате долгое время остается тишина.

Вы можете делать все правильно месяцами или годами — Если есть хоть одна ошибка, всегда найдется кто-то, кто набросится на нее, высмеет, унизит вас или сделает неприятные комментарии.

Ошибки — типичный пример эффекта Хорна: одного недостатка достаточно, чтобы затмить многие другие положительные аспекты.

Советы для большего прощения

Отсутствие отказоустойчивости имеет множество недостатков. Прежде всего, многие больше не осмеливаются совершить ошибку, потому что боятся последствий.

Устойчивость к ошибкам в компаниях

С точки зрения компании, отказоустойчивость — это палка о двух концах: слишком много ошибок означает финансовые потери и, возможно, снижение конкурентоспособности. Поэтому часто основное внимание уделяется предотвращению ошибок. Хорошая отказоустойчивость здесь означает нахождение баланса: между надеждой на успех, с одной стороны, и страхом неудачи, с другой. Например так:

  • Благодарный стиль общения
    Любой, кто опасается, что ему оторвут голову при следующей возможности, выполняет максимум услуг в соответствии с правилами. Такие сотрудники не приносят собственных идей и боятся брать на себя ответственность. Поэтому важным критерием большей терпимости к ошибкам является объективный, благодарный тон. Без обвинений и угрожающих жестов, но ориентированный на решение. Дайте понять себе: без ошибок не бывает инноваций.
  • Образцовые лидеры
    Менеджеры, которые отстаивают свои ошибки, являются лучшими образцами для подражания. Они не проявляют никаких слабостей, а скорее суверенитет в решении собственных проблем. В то же время они демонстрируют толерантную корпоративную культуру. Это включает в себя критику попыток прикрытия. Если сотрудник пытается скрыть ошибки, об этом должен заявить руководитель. При обсуждении обратной связи следует четко указать, что такое поведение нежелательно.
  • Корректирующее действие
    Вместо того, чтобы долго работать над ошибками, следует устранять последствия. Если процессы неисправны, важно установить корректирующие и предупреждающие меры. Это позволяет избежать ненужных ошибок повторения.

Устойчивость к ошибкам между собой

Мы также должны быть более снисходительными в личной жизни. Если вы хотите расти, вы должны осмелиться делать что-то новое, рисковать и признавать ошибки перед собой. Как ты это делаешь? Следующие советы могут повысить вашу собственную отказоустойчивость.

  • Прими свои ошибки
    Отказоустойчивость всегда начинается с нас самих. Признайте, что вы делаете ошибки и не переживаете из-за них. Если вы ошибаетесь, не нужно стыдиться и сомневаться в собственных силах. Ошибки свойственны людям — больше никакого перфекционизма и завышенных ожиданий от себя. Те, кто относится к себе более терпимо, также получают больше снисходительности по отношению к ошибкам других людей.
  • Возьми свою свободу
    Многие теряются, пытаясь не ошибаться. Бред какой то! Каким бы прекрасным ни был план, если вы поймете, что ошибались, дайте себе свободу прерваться, переосмыслить и выбрать другой путь. Как мудро уже признал Томас А. Эдисон: «Я не проиграл. Я нашел только 10 000 способов, которые не работают ».
  • Осознайте проблему
    Часто мы оцениваем только успех. Не сколько времени, работы, энергии, пота и слез ушло на проект. Тот факт, что это в конце концов не работает, не снижает усилий. Почему бы не полюбоваться этим? Может быть, в этом тоже есть образец для подражания!
  • Видеть положительные вещи
    Ошибки — это моментальный снимок. Как и в притче, вокруг него много небольших успехов и положительных переживаний. Наша терпимость к ошибкам возрастает по мере того, как мы учимся сосредотачиваться на этих аспектах. Сосредоточьте на нем свое восприятие, а не просто посмотрите на одну ошибку.
  • Подавать пример
    Вы также можете влиять на свое окружение, проявляя большую терпимость к ошибкам. Покажите своим поведением, как правильно справляться с неудачами и поражениями. Таким образом вы побуждаете других следовать вашему примеру и принимать ошибки или не демонизировать их.
  • Учиться на ошибках
    Конечно, есть разница между принятием и незнанием. Последующее обследование остается важным. Мы сможем лучше справляться с ошибками, только если будем учиться на них — и в следующий раз сделаем лучше. Ошибки не окончательны, это шаг вперед. Этот параметр позволяет легче допускать ошибки.

Что читали об этом другие читатели

  • Вера в себя: Как обрести веру в себя (назад)
  • Fuckup Nights: Провал как развлечение?
  • Ошибка в работе: Признание правильно
  • Управление дефектами: Получение контроля над ошибками

From Wikipedia, the free encyclopedia

In PAC learning, error tolerance refers to the ability of an algorithm to learn when the examples received have been corrupted in some way. In fact, this is a very common and important issue since in many applications it is not possible to access noise-free data. Noise can interfere with the learning process at different levels: the algorithm may receive data that have been occasionally mislabeled, or the inputs may have some false information, or the classification of the examples may have been maliciously adulterated.

Notation and the Valiant learning model[edit]

In the following, let X be our n-dimensional input space. Let {mathcal {H}} be a class of functions that we wish to use in order to learn a {0,1}-valued target function f defined over X. Let {mathcal {D}} be the distribution of the inputs over X. The goal of a learning algorithm {mathcal {A}} is to choose the best function {displaystyle hin {mathcal {H}}} such that it minimizes {displaystyle error(h)=P_{xsim {mathcal {D}}}(h(x)neq f(x))}. Let us suppose we have a function {displaystyle size(f)} that can measure the complexity of f. Let {displaystyle {text{Oracle}}(x)} be an oracle that, whenever called, returns an example x and its correct label f(x).

When no noise corrupts the data, we can define learning in the Valiant setting:[1][2]

Definition:
We say that f is efficiently learnable using {mathcal {H}} in the Valiant setting if there exists a learning algorithm {mathcal {A}} that has access to {displaystyle {text{Oracle}}(x)} and a polynomial {displaystyle p(cdot ,cdot ,cdot ,cdot )} such that for any {displaystyle 0<varepsilon leq 1} and {displaystyle 0<delta leq 1} it outputs, in a number of calls to the oracle bounded by {displaystyle pleft({frac {1}{varepsilon }},{frac {1}{delta }},n,{text{size}}(f)right)} , a function {displaystyle hin {mathcal {H}}} that satisfies with probability at least 1-delta the condition {displaystyle {text{error}}(h)leq varepsilon }.

In the following we will define learnability of f when data have suffered some modification.[3][4][5]

Classification noise[edit]

In the classification noise model[6] a noise rate {displaystyle 0leq eta <{frac {1}{2}}} is introduced. Then, instead of {displaystyle {text{Oracle}}(x)} that returns always the correct label of example x, algorithm  mathcal{A} can only call a faulty oracle {displaystyle {text{Oracle}}(x,eta )} that will flip the label of x with probability eta . As in the Valiant case, the goal of a learning algorithm {mathcal {A}} is to choose the best function {displaystyle hin {mathcal {H}}} such that it minimizes {displaystyle error(h)=P_{xsim {mathcal {D}}}(h(x)neq f(x))}. In applications it is difficult to have access to the real value of eta , but we assume we have access to its upperbound eta _{B}.[7] Note that if we allow the noise rate to be 1/2, then learning becomes impossible in any amount of computation time, because every label conveys no information about the target function.

Definition:
We say that f is efficiently learnable using {mathcal {H}} in the classification noise model if there exists a learning algorithm {mathcal {A}} that has access to {displaystyle {text{Oracle}}(x,eta )} and a polynomial {displaystyle p(cdot ,cdot ,cdot ,cdot )} such that for any {displaystyle 0leq eta leq {frac {1}{2}}}, {displaystyle 0leq varepsilon leq 1} and {displaystyle 0leq delta leq 1} it outputs, in a number of calls to the oracle bounded by {displaystyle pleft({frac {1}{1-2eta _{B}}},{frac {1}{varepsilon }},{frac {1}{delta }},n,size(f)right)} , a function {displaystyle hin {mathcal {H}}} that satisfies with probability at least 1-delta the condition {displaystyle error(h)leq varepsilon }.

Statistical query learning[edit]

Statistical Query Learning[8] is a kind of active learning problem in which the learning algorithm {mathcal {A}} can decide if to request information about the likelihood {displaystyle P_{f(x)}} that a function f correctly labels example x, and receives an answer accurate within a tolerance alpha . Formally, whenever the learning algorithm {mathcal {A}} calls the oracle {displaystyle {text{Oracle}}(x,alpha )}, it receives as feedback probability {displaystyle Q_{f(x)}}, such that {displaystyle Q_{f(x)}-alpha leq P_{f(x)}leq Q_{f(x)}+alpha }.

Definition:
We say that f is efficiently learnable using {mathcal {H}} in the statistical query learning model if there exists a learning algorithm {mathcal {A}} that has access to {displaystyle {text{Oracle}}(x,alpha )} and polynomials {displaystyle p(cdot ,cdot ,cdot )}, {displaystyle q(cdot ,cdot ,cdot )}, and {displaystyle r(cdot ,cdot ,cdot )} such that for any {displaystyle 0<varepsilon leq 1} the following hold:

  1. {displaystyle {text{Oracle}}(x,alpha )} can evaluate {displaystyle P_{f(x)}} in time {displaystyle qleft({frac {1}{varepsilon }},n,size(f)right)};
  2. {displaystyle {frac {1}{alpha }}} is bounded by {displaystyle rleft({frac {1}{varepsilon }},n,size(f)right)}
  3. {mathcal {A}} outputs a model h such that {displaystyle err(h)<varepsilon }, in a number of calls to the oracle bounded by {displaystyle pleft({frac {1}{varepsilon }},n,size(f)right)}.

Note that the confidence parameter delta does not appear in the definition of learning. This is because the main purpose of delta is to allow the learning algorithm a small probability of failure due to an unrepresentative sample. Since now {displaystyle {text{Oracle}}(x,alpha )} always guarantees to meet the approximation criterion {displaystyle Q_{f(x)}-alpha leq P_{f(x)}leq Q_{f(x)}+alpha }, the failure probability is no longer needed.

The statistical query model is strictly weaker than the PAC model: any efficiently SQ-learnable class is efficiently PAC learnable in the presence of classification noise, but there exist efficient PAC-learnable problems such as parity that are not efficiently SQ-learnable.[8]

Malicious classification[edit]

In the malicious classification model[9] an adversary generates errors to foil the learning algorithm. This setting describes situations of error burst, which may occur when for a limited time transmission equipment malfunctions repeatedly. Formally, algorithm {mathcal {A}} calls an oracle {displaystyle {text{Oracle}}(x,beta )} that returns a correctly labeled example x drawn, as usual, from distribution {mathcal {D}} over the input space with probability {displaystyle 1-beta }, but it returns with probability beta an example drawn from a distribution that is not related to {mathcal {D}}.
Moreover, this maliciously chosen example may strategically selected by an adversary who has knowledge of f, beta , {mathcal {D}}, or the current progress of the learning algorithm.

Definition:
Given a bound {displaystyle beta _{B}<{frac {1}{2}}} for {displaystyle 0leq beta <{frac {1}{2}}}, we say that f is efficiently learnable using {mathcal {H}} in the malicious classification model, if there exist a learning algorithm {mathcal {A}} that has access to {displaystyle {text{Oracle}}(x,beta )} and a polynomial {displaystyle p(cdot ,cdot ,cdot ,cdot ,cdot )} such that for any {displaystyle 0<varepsilon leq 1}, {displaystyle 0<delta leq 1} it outputs, in a number of calls to the oracle bounded by {displaystyle pleft({frac {1}{1/2-beta _{B}}},{frac {1}{varepsilon }},{frac {1}{delta }},n,size(f)right)} , a function {displaystyle hin {mathcal {H}}} that satisfies with probability at least 1-delta the condition {displaystyle error(h)leq varepsilon }.

Errors in the inputs: nonuniform random attribute noise[edit]

In the nonuniform random attribute noise[10][11] model the algorithm is learning a Boolean function, a malicious oracle {displaystyle {text{Oracle}}(x,nu )} may flip each i-th bit of example {displaystyle x=(x_{1},x_{2},ldots ,x_{n})} independently with probability {displaystyle nu _{i}leq nu }.

This type of error can irreparably foil the algorithm, in fact the following theorem holds:

In the nonuniform random attribute noise setting, an algorithm {mathcal {A}} can output a function {displaystyle hin {mathcal {H}}} such that {displaystyle error(h)<varepsilon } only if {displaystyle nu <2varepsilon }.

See also[edit]

  • Machine learning
  • Data mining
  • Probably approximately correct learning
  • Adversarial machine learning

References[edit]

  1. ^ Valiant, L. G. (August 1985). Learning Disjunction of Conjunctions. In IJCAI (pp. 560–566).
  2. ^ Valiant, Leslie G. «A theory of the learnable.» Communications of the ACM 27.11 (1984): 1134–1142.
  3. ^ Laird, P. D. (1988). Learning from good and bad data. Kluwer Academic Publishers.
  4. ^ Kearns, Michael. «Efficient noise-tolerant learning from statistical queries.» Journal of the ACM 45.6 (1998): 983–1006.
  5. ^ Brunk, Clifford A., and Michael J. Pazzani. «An investigation of noise-tolerant relational concept learning algorithms.» Proceedings of the 8th International Workshop on Machine Learning. 1991.
  6. ^ Kearns, M. J., & Vazirani, U. V. (1994). An introduction to computational learning theory, chapter 5. MIT press.
  7. ^ Angluin, D., & Laird, P. (1988). Learning from noisy examples. Machine Learning, 2(4), 343–370.
  8. ^ a b Kearns, M. (1998). [www.cis.upenn.edu/~mkearns/papers/sq-journal.pdf Efficient noise-tolerant learning from statistical queries]. Journal of the ACM, 45(6), 983–1006.
  9. ^ Kearns, M., & Li, M. (1993). [www.cis.upenn.edu/~mkearns/papers/malicious.pdf Learning in the presence of malicious errors]. SIAM Journal on Computing, 22(4), 807–837.
  10. ^ Goldman, S. A., & Sloan, Robert, H. (1991). The difficulty of random attribute noise. Technical Report WUCS 91 29, Washington University, Department of Computer Science.
  11. ^ Sloan, R. H. (1989). Computational learning theory: New models and algorithms (Doctoral dissertation, Massachusetts Institute of Technology).
Часть серии по
Машинное обучение
и
сбор данных

Проблемы

  • Классификация
  • Кластеризация
  • Регресс
  • Обнаружение аномалий
  • AutoML
  • Правила ассоциации
  • Обучение с подкреплением
  • Структурированный прогноз
  • Разработка функций
  • Особенности обучения
  • Онлайн обучение
  • Полу-контролируемое обучение
  • Обучение без учителя
  • Учимся ранжировать
  • Введение в грамматику

Контролируемое обучение
(классификация • регресс)

  • Деревья решений
  • Ансамбли
    • Упаковка
    • Повышение
    • Случайный лес
  • k-NN
  • Линейная регрессия
  • Наивный байесовский
  • Искусственные нейронные сети
  • Логистическая регрессия
  • Перцептрон
  • Вектор релевантности (RVM)
  • Машина опорных векторов (SVM)

Кластеризация

  • БЕРЕЗА
  • ИЗЛЕЧИВАТЬ
  • Иерархический
  • k-средства
  • Ожидание – максимизация (EM)
  • DBSCAN
  • ОПТИКА
  • Средний сдвиг

Снижение размерности

  • Факторный анализ
  • CCA
  • ICA
  • LDA
  • NMF
  • PCA
  • PGD
  • t-SNE

Структурированный прогноз

  • Графические модели
    • Сеть Байеса
    • Условное случайное поле
    • Скрытый Марков

Обнаружение аномалий

  • k-NN
  • Фактор локального выброса

Искусственная нейронная сеть

  • Автоэнкодер
  • Глубокое обучение
  • DeepDream
  • Многослойный перцептрон
  • RNN
    • LSTM
    • ГРУ
    • ESN
  • Ограниченная машина Больцмана
  • GAN
  • SOM
  • Сверточная нейронная сеть
    • U-Net
  • Трансформатор

Обучение с подкреплением

  • Q-обучение
  • SARSA
  • Временная разница (TD)

Теория

  • Дилемма смещения – дисперсии
  • Теория вычислительного обучения
  • Минимизация эмпирического риска
  • Обучение Оккама
  • PAC обучение
  • Статистическое обучение
  • Теория ВК

Площадки для машинного обучения

  • NeurIPS
  • ICML
  • ML
  • JMLR
  • ArXiv: cs.LG

Глоссарий искусственного интеллекта

  • Глоссарий искусственного интеллекта

Статьи по Теме

  • Список наборов данных для исследований в области машинного обучения
  • Схема машинного обучения

В PAC обучение, устойчивость к ошибкам относится к способности алгоритм чтобы узнать, были ли полученные примеры каким-либо образом повреждены. Фактически, это очень распространенная и важная проблема, поскольку во многих приложениях невозможно получить доступ к данным без шума. Шум может мешать процессу обучения на разных уровнях: алгоритм может получать данные, которые иногда ошибочно маркируются, или входные данные могут содержать ложную информацию, или классификация примеров может быть злонамеренно искажена.

Нотация и модель обучения Valiant

Далее пусть Икс будь нашим п-мерное пространство ввода. Позволять { mathcal {H}} быть классом функций, которые мы хотим использовать, чтобы изучить {0,1}-значная целевая функция ж определяется по Икс. Позволять { mathcal {D}} быть распределением входов по Икс. Цель алгоритма обучения { mathcal {A}} выбрать лучшую функцию { displaystyle h  in { mathcal {H}}} так что это минимизирует { displaystyle error (h) = P_ {x  sim { mathcal {D}}} (h (x)  neq f (x))}. Предположим, у нас есть функция { displaystyle size (f)} который может измерить сложность ж. Позволять { displaystyle { text {Oracle}} (х)} быть оракулом, который при каждом вызове возвращает пример Икс и его правильная этикетка f (x).

Когда никакой шум не искажает данные, мы можем определить обучение в среде Valiant:[1][2]

Определение:Мы говорим что ж эффективно обучается с помощью { mathcal {H}} в Доблестный установка, если существует алгоритм обучения { mathcal {A}} который имеет доступ к { displaystyle { text {Oracle}} (х)} и многочлен { Displaystyle р ( CDOT,  CDOT,  CDOT,  CDOT)} такой, что для любого { Displaystyle 0 < varepsilon  leq 1} и { Displaystyle 0 < дельта  leq 1} он выводит в ряде вызовов оракула, ограниченном { displaystyle p  left ({ frac {1} { varepsilon}}, { frac {1} { delta}}, n, { text {size}} (f)  right)} , функция { displaystyle h  in { mathcal {H}}} который с вероятностью удовлетворяет по крайней мере 1-  дельта условие { displaystyle { text {error}} (h)  leq  varepsilon}.

Далее мы определим обучаемость ж когда данные претерпели некоторые изменения.[3][4][5]

Классификация шума

В модели шума классификации[6] а уровень шума { displaystyle 0  leq  eta <{ frac {1} {2}}} вводится. Тогда вместо { displaystyle Oracle (x)} который всегда возвращает правильную метку примера Икс, алгоритм   mathcal {A} может вызвать только ошибочного оракула { Displaystyle Oracle (х,  eta)} это перевернет этикетку Икс с вероятностью  eta. Как и в случае с Valiant, цель алгоритма обучения { mathcal {A}} выбрать лучшую функцию { displaystyle h  in { mathcal {H}}} так что это минимизирует { displaystyle error (h) = P_ {x  sim { mathcal {D}}} (h (x)  neq f (x))}. В приложениях трудно получить доступ к реальной стоимости  eta, но мы предполагаем, что у нас есть доступ к его верхней границе  eta _ {B}.[7] Обратите внимание, что если мы допустим уровень шума 1/2, то обучение становится невозможным при любом количестве времени вычислений, потому что каждая метка не несет информации о целевой функции.

Определение:Мы говорим что ж эффективно обучается с помощью { mathcal {H}} в модель шума классификации если существует алгоритм обучения { mathcal {A}} который имеет доступ к { Displaystyle Oracle (х,  eta)} и многочлен { Displaystyle р ( CDOT,  CDOT,  CDOT,  CDOT)} такой, что для любого { displaystyle 0  leq  eta  leq { frac {1} {2}}}, { Displaystyle 0  Leq  varepsilon  Leq 1} и { Displaystyle 0  Leq  Delta  Leq 1} он выводит в ряде вызовов оракула, ограниченном { displaystyle p  left ({ frac {1} {1-2  eta _ {B}}}, { frac {1} { varepsilon}}, { frac {1} { delta}}, n, размер (f)  справа)} , функция { displaystyle h  in { mathcal {H}}} который с вероятностью удовлетворяет по крайней мере 1-  дельта условие { displaystyle error (h)  leq  varepsilon}.

Статистическое изучение запросов

Статистическое изучение запросов[8] это своего рода активное изучение проблема, в которой алгоритм обучения { mathcal {A}} может решить, запрашивать ли информацию о вероятности { Displaystyle P_ {е (х)}} что функция ж правильно маркирует пример Икс, и получает ответ с точностью в пределах допуска альфа. Формально, когда алгоритм обучения { mathcal {A}} вызывает оракул { Displaystyle Oracle (х,  альфа)}, он получает как вероятность обратной связи { Displaystyle Q_ {е (х)}}, так что { Displaystyle Q_ {е (х)} -  альфа  leq P_ {е (х)}  leq Q_ {е (х)} +  альфа}.

Определение:Мы говорим что ж эффективно обучается с помощью { mathcal {H}} в модель обучения статистическим запросам если существует алгоритм обучения { mathcal {A}} который имеет доступ к { Displaystyle Oracle (х,  альфа)} и многочлены { Displaystyle р ( cdot,  cdot,  cdot)}, { Displaystyle д ( cdot,  cdot,  cdot)}, и { Displaystyle г ( CDOT,  CDOT,  CDOT)} такой, что для любого { Displaystyle 0 < varepsilon  leq 1} справедливо следующее:

  1. { Displaystyle Oracle (х,  альфа)} можно оценить { Displaystyle P_ {е (х)}} во время { displaystyle q  left ({ frac {1} { varepsilon}}, n, размер (f)  right)};
  2. { displaystyle { frac {1} { alpha}}} ограничен { displaystyle r  left ({ frac {1} { varepsilon}}, n, размер (f)  right)}
  3. { mathcal {A}} выводит модель час такой, что { displaystyle err (h) < varepsilon}, в ряде обращений к оракулу, ограниченному { displaystyle p  left ({ frac {1} { varepsilon}}, n, размер (f)  right)}.

Обратите внимание, что параметр достоверности  дельта не фигурирует в определении обучения. Это потому, что основная цель  дельта заключается в том, чтобы позволить алгоритму обучения небольшую вероятность отказа из-за нерепрезентативной выборки. С этого момента { Displaystyle Oracle (х,  альфа)} всегда гарантирует соответствие критерию приближения { Displaystyle Q_ {е (х)} -  альфа  leq P_ {е (х)}  leq Q_ {е (х)} +  альфа}, вероятность отказа больше не нужна.

Модель статистических запросов строго слабее, чем модель PAC: любой класс, эффективно обучаемый SQ, может эффективно обучаться PAC при наличии шума классификации, но существуют эффективные проблемы, которые можно изучить с помощью PAC, такие как паритет которые не могут быть эффективно обучены SQ.[8]

Вредоносная классификация

В модели вредоносной классификации[9] злоумышленник генерирует ошибки, чтобы помешать алгоритму обучения. Этот параметр описывает ситуации пакет ошибок, что может произойти, если в течение ограниченного времени передающее оборудование неоднократно выходит из строя. Формально алгоритм { mathcal {A}} вызывает оракула { Displaystyle Oracle (х,  бета)} который возвращает правильно помеченный пример Икс взяты, как обычно, из раздачи { mathcal {D}} над входным пространством с вероятностью { displaystyle 1-  beta}, но он возвращается с вероятностью бета пример взят из дистрибутива, не относящегося к { mathcal {D}}. Более того, этот злонамеренно выбранный пример может быть стратегически выбран противником, который знает ж, бета, { mathcal {D}}, или текущий прогресс алгоритма обучения.

Определение:Учитывая границу { displaystyle  beta _ {B} <{ frac {1} {2}}} за { displaystyle 0  leq  beta <{ frac {1} {2}}}мы говорим, что ж эффективно обучается с помощью { mathcal {H}} в модели вредоносной классификации, если существует алгоритм обучения { mathcal {A}} который имеет доступ к { Displaystyle Oracle (х,  бета)} и многочлен { Displaystyle п ( CDOT,  CDOT,  CDOT,  CDOT,  CDOT)} такой, что для любого { Displaystyle 0 < varepsilon  leq 1}, { Displaystyle 0 < дельта  leq 1} он выводит в ряде вызовов оракула, ограниченном { displaystyle p  left ({ frac {1} {1 / 2-  beta _ {B}}}, { frac {1} { varepsilon}}, { frac {1} { delta}} , n, размер (f)  right)} , функция { displaystyle h  in { mathcal {H}}} который с вероятностью удовлетворяет по крайней мере 1-  дельта условие { displaystyle error (h)  leq  varepsilon}.

Ошибки во входных данных: неоднородный шум случайных атрибутов

В неоднородном шуме случайных атрибутов[10][11] модель, которую алгоритм изучает Логическая функция, злой оракул { Displaystyle Oracle (х,  ню)} может перевернуть каждый я-й бит примера { displaystyle x = (x_ {1}, x_ {2},  ldots, x_ {n})} независимо с вероятностью { Displaystyle  ню _ {я}  leq  nu}.

Этот тип ошибки может непоправимо помешать алгоритму, на самом деле имеет место следующая теорема:

В настройке неоднородного шума случайных атрибутов алгоритм { mathcal {A}} может выводить функцию { displaystyle h  in { mathcal {H}}} такой, что { displaystyle error (h) < varepsilon} только если { Displaystyle  Nu <2  varepsilon}.

Смотрите также

  • Машинное обучение
  • Сбор данных
  • Наверное, примерно правильное обучение
  • Состязательное машинное обучение

Рекомендации

  1. ^ Валиант, Л. Г. (август 1985 г.). Изучение дизъюнкции союзов. В IJCAI (стр. 560–566).
  2. ^ Валиант, Лесли Г. «Теория обучаемого». Сообщения ACM 27.11 (1984): 1134–1142.
  3. ^ Лэрд, П. Д. (1988). Учимся на хороших и плохих данных. Kluwer Academic Publishers.
  4. ^ Кирнс, Майкл. «Эффективное устойчивое к шуму обучение на основе статистических запросов». Журнал ACM 45.6 (1998): 983–1006.
  5. ^ Бранк, Клиффорд А. и Майкл Дж. Паццани. «Исследование устойчивых к шуму реляционных алгоритмов обучения концепции». Материалы 8-го международного семинара по машинному обучению. 1991 г.
  6. ^ Кирнс, М. Дж., И Вазирани, У. В. (1994). Введение в теорию вычислительного обучения, глава 5. MIT press.
  7. ^ Англуин Д. и Лэрд П. (1988). Учимся на шумных примерах. Машинное обучение, 2 (4), 343–370.
  8. ^ а б Кернс, М. (1998). [www.cis.upenn.edu/~mkearns/papers/sq-journal.pdf Эффективное устойчивое к шуму обучение на основе статистических запросов]. Журнал ACM, 45 (6), 983–1006.
  9. ^ Кирнс, М., и Ли, М. (1993). [www.cis.upenn.edu/~mkearns/papers/malicious.pdf Обучение при наличии вредоносных ошибок]. SIAM Journal on Computing, 22 (4), 807–837.
  10. ^ Гольдман, С.А., и Роберт, Х. (1991). Слоан. Сложность случайного атрибута шума. Технический отчет WUCS 91 29, Вашингтонский университет, факультет компьютерных наук.
  11. ^ Слоан, Р. Х. (1989). Теория вычислительного обучения: новые модели и алгоритмы (Докторская диссертация, Массачусетский технологический институт).

Понравилась статья? Поделить с друзьями:
  • Устои темного царства пошатнулись ошибка
  • Устная часть егэ английский типичные ошибки
  • Устранение ошибок жесткого диска через командную строку
  • Устранение ошибок диска через cmd
  • Устранение ошибок гпк