5.03.2017 |
23:26:58 |
progr. |
ADP agent |
агент ADP |
5.03.2017 |
23:24:28 |
progr. |
full agent program |
полная программа агента |
5.03.2017 |
23:23:40 |
progr. |
agent program |
программа агента |
5.03.2017 |
23:11:54 |
progr. |
action outcome |
результат действия |
5.03.2017 |
23:08:34 |
progr. |
table of probabilities |
таблица вероятностей |
5.03.2017 |
23:06:32 |
progr. |
simplest case |
простейший случай |
5.03.2017 |
23:03:13 |
progr. |
resulting state |
результирующее состояние |
5.03.2017 |
23:00:29 |
progr. |
supervised learning task |
задача контролируемого обучения |
5.03.2017 |
22:55:06 |
progr. |
process of learning the model |
процесс определения модели с помощью обучения |
5.03.2017 |
22:49:11 |
progr. |
quite quickly |
очень быстро |
5.03.2017 |
22:44:36 |
progr. |
previous utility estimates |
предыдущие оценки полезностей |
5.03.2017 |
22:40:04 |
progr. |
approach of modified policy iteration |
подход, основанный на принципе модифицированной итерации по стратегиям |
5.03.2017 |
22:39:07 |
progr. |
simplified value iteration process to update the utility estimates after each change to the learned model |
упрощённый процесс итерации по значениям для обновления оценок полезностей после каждого изменения в модели, определяемой с помощью обучения |
5.03.2017 |
22:32:44 |
progr. |
change to the learned model |
изменение в модели, определяемой с помощью обучения |
5.03.2017 |
22:28:32 |
progr. |
learned |
определяемый с помощью обучения |
5.03.2017 |
22:27:23 |
progr. |
learned model |
модель, определяемая с помощью обучения |
5.03.2017 |
22:22:40 |
progr. |
utility estimates |
оценки полезностей |
5.03.2017 |
22:17:09 |
progr. |
simplified value iteration process |
упрощённый процесс итерации по значениям |
5.03.2017 |
22:15:43 |
progr. |
value iteration process |
процесс итерации по значениям |
5.03.2017 |
22:14:03 |
progr. |
value iteration |
итерация по значениям |
5.03.2017 |
22:08:58 |
progr. |
modified policy iteration |
модифицированная итерация по стратегиям |
5.03.2017 |
22:04:47 |
progr. |
linear algebra package |
пакет линейной алгебры |
5.03.2017 |
22:02:04 |
progr. |
observed rewards |
наблюдаемые вознаграждения |
5.03.2017 |
22:00:48 |
progr. |
observed reward |
наблюдаемое вознаграждение |
5.03.2017 |
21:58:09 |
progr. |
utilities of the states |
полезности состояний |
5.03.2017 |
21:55:50 |
progr. |
learned transition model |
полученная с помощью обучения модель перехода |
5.03.2017 |
21:54:47 |
progr. |
transition model |
модель перехода |
5.03.2017 |
21:51:55 |
progr. |
learned |
полученный с помощью обучения |
5.03.2017 |
21:40:10 |
progr. |
adaptive dynamic programming agent |
агент, действующий по принципу адаптивного динамического программирования |
5.03.2017 |
21:40:10 |
progr. |
ADP agent |
агент, действующий по принципу адаптивного динамического программирования |
5.03.2017 |
21:38:28 |
progr. |
adaptive dynamic programming |
адаптивное динамическое программирование |
5.03.2017 |
21:27:45 |
progr. |
corresponding Markov decision process |
соответствующий марковский процесс принятия решений |
5.03.2017 |
21:14:44 |
AI. |
Markov decision process |
марковский процесс принятия решений (математический формализм для марковского дискретного стохастического процесса управления, основа для моделирования последовательного принятия решений в ситуациях, где результаты частично случайны и частично зависят от агента, принимающего решения. Используется в робототехнике, автоматизированном управлении, экономике и производстве. Подход к обучению с подкреплением, основанный на марковском процессе принятия решений, применяется, например, в нейронной сети AlphaZero.) |
5.03.2017 |
17:20:16 |
progr. |
data-type condition |
зависящее от типа данных условие |
5.03.2017 |
17:16:10 |
telecom. |
connections condition |
состояние соединений |
5.03.2017 |
17:14:57 |
telecom. |
common equipment condition |
состояние общего оборудования |
5.03.2017 |
17:10:07 |
telecom. |
carrier sense condition |
условие контроля несущей |
5.03.2017 |
0:20:56 |
progr. |
observed reward-to-go |
наблюдаемое будущее вознаграждение |
5.03.2017 |
0:20:11 |
progr. |
reward-to-go |
будущее вознаграждение |
5.03.2017 |
0:17:59 |
progr. |
state as input |
состояние в качестве входных данных |
4.03.2017 |
23:55:43 |
progr. |
opportunities for learning |
дополнительные возможности для обучения |
4.03.2017 |
23:53:42 |
progr. |
opportunity |
дополнительная возможность |
4.03.2017 |
23:24:14 |
AI. |
discount factor |
коэффициент обесценивания (контролирует предпочтение интеллектуальным агентом мгновенных вознаграждений по сравнению с вознаграждениями в будущем) |
4.03.2017 |
23:00:57 |
progr. |
a set of trials |
ряд попыток |
4.03.2017 |
22:53:53 |
progr. |
reward function |
функция вознаграждения (напр., в пассивном обучении с подкреплением задаёт вознаграждение для каждого состояния) |
4.03.2017 |
22:47:53 |
progr. |
reward for each state |
вознаграждение для каждого состояния |
4.03.2017 |
22:42:15 |
progr. |
doing action |
выполнение действия |
4.03.2017 |
22:39:00 |
progr. |
probability of reaching state |
вероятность достижения состояния |
4.03.2017 |
22:37:58 |
progr. |
reaching state |
достижение состояния |
4.03.2017 |
22:32:46 |
progr. |
corresponding utilities |
соответствующие полезности |
4.03.2017 |
22:26:49 |
progr. |
agent's policy |
стратегия агента |
4.03.2017 |
22:05:38 |
math. |
main difference |
основное различие |
4.03.2017 |
22:03:00 |
progr. |
part of the policy iteration algorithm |
часть алгоритма итерации по стратегиям |
4.03.2017 |
22:00:27 |
progr. |
policy iteration algorithm |
алгоритм итерации по стратегиям |
4.03.2017 |
21:40:26 |
progr. |
task of reinforcement learning |
задача обучения с подкреплением |
4.03.2017 |
20:17:07 |
progr. |
trading off computational expense and path cost |
поиск компромисса между вычислительными издержками и стоимостью пути |
4.03.2017 |
20:13:21 |
progr. |
trading |
поиск компромисса |
4.03.2017 |
19:57:10 |
progr. |
path cost |
стоимость пути (при поиске кратчайшего маршрута) |
4.03.2017 |
19:54:51 |
progr. |
computational expense |
вычислительные издержки |
4.03.2017 |
19:46:29 |
progr. |
total cost of problem solving |
суммарная стоимость решения задач |
4.03.2017 |
19:45:14 |
progr. |
cost of problem solving |
стоимость решения задач |
4.03.2017 |
19:43:55 |
progr. |
total cost |
суммарная стоимость (напр., решения задач) |
4.03.2017 |
19:38:44 |
progr. |
goal of learning |
цель обучения |
4.03.2017 |
19:35:32 |
progr. |
exploring unpromising subtrees |
исследование бесперспективных поддеревьев |
4.03.2017 |
19:34:35 |
progr. |
unpromising subtree |
бесперспективное поддерево |
4.03.2017 |
19:29:42 |
progr. |
metalevel learning algorithm |
алгоритм метауровневого обучения |
4.03.2017 |
19:28:52 |
progr. |
metalevel learning |
метауровневое обучение |
4.03.2017 |
19:25:40 |
progr. |
path in the metalevel state space |
путь в метауровневом пространстве состояний |
4.03.2017 |
19:21:32 |
progr. |
object-level search tree |
объектно-уровневое дерево поиска |
4.03.2017 |
19:17:06 |
progr. |
action in the metalevel state space |
действие в метауровневом пространстве состояний |
4.03.2017 |
0:14:13 |
progr. |
internal state of the algorithm |
внутреннее состояние алгоритма |
4.03.2017 |
0:04:36 |
progr. |
current search tree |
текущее дерево поиска |
4.03.2017 |
0:00:23 |
progr. |
object-level |
на уровне объектов |
3.03.2017 |
23:57:14 |
progr. |
object-level |
уровня объектов |
3.03.2017 |
23:55:53 |
progr. |
object-level |
рассматриваемый на уровне объектов |
3.03.2017 |
23:55:23 |
progr. |
object-level |
объектно-уровневый |
3.03.2017 |
23:53:42 |
progr. |
object-level state space |
объектно-уровневое пространство состояний |
3.03.2017 |
23:52:04 |
progr. |
object-level state space |
пространство состояний, рассматриваемое на уровне объектов |
3.03.2017 |
23:47:59 |
progr. |
computational state of a program |
вычислительное состояние программы |
3.03.2017 |
23:47:04 |
progr. |
computational state |
вычислительное состояние |
3.03.2017 |
23:44:48 |
progr. |
internal state of a program |
внутреннее состояние программы |
3.03.2017 |
23:39:28 |
progr. |
state in a metalevel state space |
состояние в метауровневом пространстве состояний |
3.03.2017 |
23:32:19 |
progr. |
metalevel |
рассматриваемый на метауровне |
3.03.2017 |
23:32:19 |
progr. |
metalevel |
метауровневый |
3.03.2017 |
23:30:49 |
progr. |
metalevel state space |
метауровневое пространство состояний |
3.03.2017 |
23:28:23 |
progr. |
metalevel state space |
пространство состояний, рассматриваемое на метауровне |
3.03.2017 |
23:20:56 |
progr. |
learning to search better |
обучение лучшим способам поиска |
3.03.2017 |
22:34:31 |
math. |
bicontinuously |
взаимно-непрерывно |
3.03.2017 |
22:28:12 |
math. |
bicontinuous |
бинепрерывный |
3.03.2017 |
22:24:08 |
math. |
bicontinuous |
взаимно непрерывный |
3.03.2017 |
22:21:50 |
math. |
bicontinuity |
непрерывность в обе стороны |
3.03.2017 |
22:21:50 |
math. |
bicontinuity |
взаимная непрерывность |
3.03.2017 |
22:04:22 |
comp. |
biconditional operation |
операция равнозначности |
3.03.2017 |
21:54:01 |
math. |
biconditional |
эквивалентность |
3.03.2017 |
21:54:01 |
math. |
biconditional |
эквиваленция (логическая связка) |
3.03.2017 |
21:48:13 |
meas.inst. |
calibration condition |
условие калибровки |
3.03.2017 |
21:47:02 |
progr. |
calculation condition |
условие вычисления |
3.03.2017 |
21:36:00 |
progr. |
authentication condition |
состояние аутентификации |
3.03.2017 |
21:30:39 |
math. |
ascending chain |
возрастающая цепочка |
3.03.2017 |
21:24:51 |
progr. |
analysis condition |
условие анализа |