基于深度学习的态势理解

时间:2020-03-07 来源: 国内新闻

情境理解(SU)需要洞察力(准确感知现有情境的能力)和远见(预测现有情境在未来如何发展的能力)。SU包括信息融合、模型表示和推理。一般来说,在信息融合过程中必须利用异构数据源:包括硬数据和软数据。在联盟的情况下,还应该分配数据和处理资源,并限制信息共享。在SU过程中,人们经常被要求参与流通过程,提供关键的输入和指导,并以适当和透明的方式解释输出:系统不应该是一个“黑箱”。在本文中,我们从集成、时间、分布和人员需求方面描述了联合态势理解(CSU)问题。目前,人们对处理硬数据和软数据的深度学习方法非常感兴趣。我们分析了与这些CSU需求相关的最新DL技术,并分析了具有相当大潜力和关键差距的领域。

1。简介

复杂多样领域的决策(如空中交通管制、船舶导航、应急响应、军事指挥与控制等)。)通常在很大程度上取决于决策者对形势的理解。一般来说,这种理解的概念被定义为“分析和判断单位的情况,确定现有因素之间的关系,并分析任务完成的威胁,任务完成的机会和双方之间的差距,以得出结论”[1。这对应于恩德斯利广泛使用的模型中的第二情境感知(SA),如图1所示。事实上,Endsley模型为我们提供了对时空环境中元素感知的可操作定义的理解(第1级),接着是对特定环境的理解(第2级),最后是通过时间变化或其他事件预测未来事件的能力(第3级)。

在文本工作中,我们讨论了在特定的军事联盟环境中实现态势理解所需的功能模块,这种环境的特点是所有代理人组成一个联盟,共同努力实现共同的任务目标。这些代理也是独立管理领域的一部分。不同的管理领域决定了它们的本地数据收集和数据共享策略。

的灵感来自于深入学习技术在医疗保健、刑事司法系统、金融和军事决策领域的广泛应用。首先,我们从图1所示的操作定义开始,即使用分布式学习框架的组件(由Endsley模型提供)在不同阶段的情境理解和情境理解之间进行映射。首先,为了获得对环境的感知,应该训练分布式模型来识别发生在不同时空粒度级别的事件。这些事件记录在各种代理收集的时间序列数据中。代理可以通过联合上下文进一步引入局部约束来调整代理之间的信息流,从而增加额外的复杂性和复杂性。其次,为了有助于理解,模型不能是一个黑盒,而是必须是可解释的,它的输出可以用人类能够理解的语言来解释。最后,模型本身应该能够生成并能够准确预测未来状态。

图2显示了联邦网络的多级视图。第1层描述了不同的代理(蓝色、绿色和黄色区域)。每个代理在本地收集多模态数据,并在数据共享策略的约束下与其他代理协作。第二层展示了通过从人和机器获取信息来理解情况的过程。

联合态势理解(CSU):基于以上描述,联合态势理解可以分为以下几个部分:

(1)分布式学习算法:联合网络的存在基于整体大于部分之和的前提。在共享环境模型中,学习使用来自所有代理的组合信息比单一信息更重要。总而言之,为了训练共享模型并实现上述目标,所使用的学习算法应该是:1)能够根据连接各种代理的网络拓扑的可变性进行调整;2)对代理提供的训练数据的可靠性的敏感性;3.)解释代理提供的不同粒度的信息(例如原始数据或模型参数);4)满足代理的隐私要求。

(2)多时间尺度学习:通常,联合网络用于监控特定地理区域中感兴趣的事件。但是,受监控事件的时间段可能不同。共享模型应该能够使用来自代理的集体信息来学习在不同的时间尺度上准确地表达他们自己的事件。例如,在特定路段上,工作日的交通量(或拥堵程度)可能完全取决于一天中的时间。然而,周末的拥挤程度可能取决于附近体育赛事的日程安排。因此,拥塞应该是在不同时间尺度上发生的两个不同事件的预测结果。

(3)模型的可解释性和可解释性:这些属性指的是模型和人类之间的双向信息流。尽管基于深度学习的模型是由神经科学对人脑工作的理解驱动的,但两者之间的关键区别在于人类的“思维能力”。一般来说,正是这种思维能力使人类不仅能够做出预测,而且能够通过一系列逻辑上一致且易于理解的选择做出预测,从而使预测合理化。反过来,这种能力使决策者能够隐式或显式地将置信度与预测结果相关联,并使用它们来确定下一步。深度学习模型中与人类思维过程相对应的部分通常被称为可解释性。这种解释和预测的能力可以使有意义的信息从模型流向人类。

我们称从人类到模型的信息流为例证。与我们期望模型从训练集中的样本中学习其相应类别的特征相反,可解释性意味着不属于训练数据的一部分的先验信息被添加到模型中。解释性信息通常基于人们的先验知识,并不限于培训数据。

我们的贡献:在本文中,我们有两个贡献。首先,我们将联合态势理解问题转化为一个学习框架,在该框架中,我们将Endsley模型的操作定义映射到学习框架的不同组件,然后我们为每个组件提供对最先进技术的总结和分析。其次,我们使用了一些技术来弥补每个组件中的差距,以便更好地了解情况,并提供了初步结果,列出了一些需要解决的问题。

2。分布式模型学习

我们粗略地将设计有效的分布式学习算法所涉及的挑战分为两类:(1)任何学习策略都应该考虑影响数据(或参数)共享通信成本的代理网络拓扑的异构性,并对不可靠的训练数据进行适当的调整。(2)在对抗环境中,学习算法应灵活处理篡改训练数据的行为,以破坏模型的学习,同时保护共享本地数据的代理的隐私。

a .学习策略的比较

我们对不同的分布式学习策略进行了初步分析,并比较了它们的交流效率。我们特别关注(1)联合,(2)增量和(3)扩散策略,这些策略在使用基于模型的训练后具有最高的通信效率。一旦学习算法完成模型训练,所有代理都应该有相同的共享模型。

联合学习是一种集中的学习策略。学习是通过由中央服务器协调的所有代理的关联来完成的。在每次迭代中,代理从中央服务器提取全局模型,并分别在其本地数据集上训练模型。经过几个阶段的训练后,中央服务器汇总所有代理的参数更新。其参数被平均并用于更新全局模型参数。

增量学习策略通过循环路径连接代理来传播模型更新。分布网络由一个图表示,其中代理对应于图中的节点。如果两个节点之间有直接通信线路,表明它们在一定距离内是邻居,则在它们之间放置一条边。尽管找到这样一个圈(也称为哈密顿圈)通常是一个NP完全问题,但以前的工作已经证明,我们可以从实验中使用的随机几何中以高概率找到它。在训练期间,每个代理将模型参数传递给周期中的下一个代理。因此,在任何迭代中只有一个代理是活动的。

扩散学习策略也使用上面提到的哈密尔顿循环。然而,在这种策略中,所有代理都使用它们的本地数据集来并行执行模型训练。一旦训练完成,模型参数将与相邻节点共享。这样,模型参数可以更快地传播,并且它也符合异步学习,在异步学习中,不同的代理将在每次迭代中使用具有不同参数的模型进行学习。

实验设置:我们使用n个均匀分布在[0,1]单位正方形区域的节点作为我们的模拟网络。每个节点维护自己的私有数据集,这些数据集可用于训练共享模型。在这个网络中,分布式学习策略的实现如下:

在联合学习的情况下,我们利用分布区域的对称性来计算正方形的中心坐标,其中中心服务器的最佳位置是[0.5,0.5]。因此,每个代理的平均通信成本是一个常数,等于1/6,总通信成本大约是,它与网络中代理的数量成正比。

在增量学习和扩散学习策略的情况下,沟通成本取决于形成哈密尔顿循环的边缘。因为图是基于通信约束构造的,也就是说,两个节点之间的边仅在其距离小于某个半径时才存在。将该半径设置为r可以确保哈密尔顿环的概率非常高,并且其平均通信成本不超过t。表II-A显示了三种策略中的每一种的总通信成本的比较。

我们使用具有128个神经元的单隐层多层感知器(MLP)网络作为共享模型,并使用MNIST数据集对其进行训练。数据随机分布在十个代理中。在每次迭代中,代理使用本地数据集和批量的100个数据样本来训练其模型,总共20次迭代。使用的优化算法是随机梯度下降。每次迭代后,我们使用测试数据集来评估每个代理的性能,并根据学习策略与其他代理进行通信。

沟通成本分析:我们使用两个不同的指标来分析沟通成本。首先是错误率,我们将其定义为:ER=1-P

总通信成本是不同客户端之间所有通信成本对的总和。

图3显示了不同学习策略的错误率变化。对于增量学习策略,曲线表示模型在网络中传播的性能。对于联合学习和扩散学习,过渡曲线表示为网络中所有代理的测试错误率的平均值。图3(a)示出了三种不同策略的误码率曲线随迭代次数的变化,图3(b)示出了误码率随通信成本的变化。

从我们的初步分析,我们可以看到联合学习消耗的能量最多。这是因为我们假设所有代理都可以与中央服务器通信,这就要求它们具有足够的无线电能力。此外,我们为存储和更新参数而建立的中央服务器也是资源密集型的。相反,对于增量和扩散策略,平均通信距离可以使用哈密尔顿循环进行优化,这也为每个客户端提供了无线电范围的上限。

b .隐私感知的分布式学习方法:

让我们总结一下隐私感知和反学习策略领域以前的工作。

Shokri等人([10)的工作考虑了在不同代理之间分配数据的设置,每个代理都希望保持自己的数据私有,目标是学习组合数据的模型。作者提出了模型的局部训练方法,即只共享模型参数,不共享原始数据。事实上,为了保证模型的私密性,在共享之前,差分私有噪声被用来干扰模型参数,共享的参数被平均并传递回实体用于下一次迭代。模型反转攻击在[11]中得到了证明,并且作者表明共享模型很容易泄露信息,甚至在面对“黑箱”对手(仅通过输入和输出与模型交互)时,它也非常脆弱。最近,阿巴迪等人[12]演示了大差分私人神经网络和私人预算的训练。他们证明了他们的模型能够抵抗更强大的对手的模型反演攻击,这些对手也具有训练算法和模型参数的知识。

生成对抗网络(GAN)是一个用于在对抗环境中训练生成模型的无监督框架。GAN同时训练了两个模型:一个是捕获数据分布的生成模型G,另一个是用来估计样本来自训练数据的概率的判别模型D,它的目的是训练生成器G,使判别器的错误率接近50%,这意味着D不能区分训练样本和错误样本。当发生器无法测量时,鉴别器可以访问训练样本。发生器的重量根据鉴别器的输出进行调整。在分布式学习设置中,每个代理训练鉴别器模型(具有对本地训练数据的访问),并基于从不同代理的鉴别器模型接收的反馈训练共享生成器模型。有时,训练数据会注入恶意样本,使得攻击者能够使模型变得脆弱,并在不知道模型参数的情况下发起黑盒攻击。对抗训练是一种以对抗为例的训练模式,使其对攻击具有鲁棒性。在[14]中,已经提出将对抗训练扩展到更大的数据集。

c .联盟环境中未解决的问题在网络拓扑和共享数据形式方面,联盟环境中的分布式学习受到代理数据的隐私性和异构性的影响。此外,对于大型模型,参数共享在内存和带宽消耗方面也非常昂贵,尤其是对于资源受限的代理[15]。

在未来,我们计划扩大研究范围,更精确地模拟网络效应,包括带宽限制,这样我们就能更好地研究网络对学习算法的影响。此外,我们将引入适当的惩罚函数来处理训练数据的可靠性,并研究它们对错误率的影响。

3。联合环境中的多尺度时间学习

情境理解是一项复杂的任务,需要整合来自不同来源的信息以做出准确的决策。主要挑战之一是如何处理数据源在时间尺度上的异构性。这可能是由于收集数据的不同采样率,或者由于数据中记录的模式的不同周期性。我们将在下面详细解释这些问题:

多时间尺度数据源:如果不同的数据源以不同的频率收集数据,在尝试从这些数据源学习模型时会遇到一些问题。例如,如果全球定位系统传感器以每分钟一个样本的速率收集数据(0。麦克风以明显更高的速率(赫兹)收集数据。显然,合并这两个数据源很有挑战性,因为它们的数据速率非常不同。

多时间尺度数据模式:即使使用来自单一数据源的数据,多时间尺度模式学习也是一个具有挑战性的问题。数据中可能存在不同尺度的模式,需要尺度不变的学习算法。例如,考虑对道路交通建模以预测未来拥堵水平的任务。显然,交通拥堵模式存在于多个时间尺度上:一天中的特定时间、一周中的特定日期,甚至一年中的特定季节。另一个例子是用于文本理解的语言建模。在这种情况下,模式存在于字符级、单词级和句子级。一个有效的模型应该能够同时学习和利用所有这些模式,而不是建模一个单一的模式。

a .以前的多时间尺度学习方法

递归神经网络(RNNs)理论上能够学习长期的时间相关关系,而不管它们的大小。然而,在实际应用中,由于长期记忆的要求,这是很难实现的,RNN有消失梯度问题[16]。在序列预测和分类过程中,时间序列数据的多尺度模型导致了这些实际困难,于是产生了时钟RNN (CW-RNN)模型架构[17]。CW-RNN是标准RNN架构的强大修订版,其中隐藏的层单元被分成单独的模块。每个模块都可以以自己的时间速率处理输入。每个模块中的单元完全相互连接,而只有较快模块(具有较小时钟周期)中的单元连接到其他较慢模块(具有较大时钟周期)中的单元。CW-RNN对[17]中的序列生成和序列分类任务的评估结果表明,CW-RNN可以获得比标准RNNs和LSTM(长短期记忆,LSTM)网络[18]更好的结果。此外,连续小波神经网络的计算效率也高于具有相同隐神经元数目的等效RNN或LSTM网络,因为隐神经元仅在指定的时间频率更新。然而,CW-RNN需要手动设置每组隐藏神经元的时间速率,并且有效的多尺度学习算法应该能够从数据中自动学习这些速率。

作者最近提出了一种通过发现[19中序列的潜在层次来学习多尺度时间模式的方法。该模型称为分层多尺度递归神经网络(HMRNN),不需要分配固定的时间速率或显式的边界信息。该模型能够自适应地找到序列中不同尺度模式之间的正确关系。

当尺度变化存在于除时间之外的维度中时,多尺度学习也是一个具有挑战性的问题,例如以不同尺度出现的物体图像。虽然最新的目标识别技术卷积神经网络(美国有线电视新闻网)[20]可以使用卷积和汇集层来满足平移和比例不变性的要求,以检测图像中的模式,但比例不变性仍然是一个挑战,因为美国有线电视新闻网的准确性可能会因测试图像中对象比例的变化而显着降低。[21]这一点也得到了证实,这证明了美国有线电视新闻网在缩小版的《[22》数据集上的性能比在标准《美国有线电视新闻网10》数据集上的性能下降了43.22%。为了应对这一挑战,人们提出了一种新的神经网络,如尺度不变卷积神经网络,它能够检测目标并对尺度变化具有适应性。使用心电图数据的多时间尺度模式学习我们训练了一个深度递归神经网络来识别心电图信号中的模式,并使用它来研究多尺度模式学习问题。心电图有多个由波组成的重复模式,通常用字母P、Q、R、S、T和u来标识。为了成功地学习这些模式并合成心电图信号,必须保留每个波之间的间隔及其周期性。此外,信号的高采样率意味着信号的当前值可以在数百个时间步长之前长时间依赖于先前值。因此,为了对这些长期依赖关系建模,模型必须具有长期存储和内存能力。

我们使用[23]中提出的分层递归神经网络结构的变体来进行我们的实验。图4显示了与我们的模型相结合的2000个真实心电图信号。结果表明,该模型能够成功生成与实际信号相匹配的输出信号。

C .联合环境中的未解决问题

多尺度学习是联合环境中的一个固有问题,因为不同的代理在不同的时间尺度上收集数据。此外,在涉及监测的联合方案中,通常需要了解非常长期的相关性(预测或分类结果可能在很长一段时间内严重依赖于数据信息)。对于标准的RNN和LSTM网络,学习非常长的依赖关系是一个问题,并且多尺度学习算法,例如CW-RNN和HM-RNN在这个问题上具有更好的效果。将来,我们还希望将这些模型与场景描述技术相结合,以改进[24]的结果。

4。模型的解释性和解释性

这两个属性表明人员对CSU问题的了解程度。如第一部分所述和图2所示,人类用户在设置需求和偏好时通常具有许多与数据模型的交互点。这些交互必须是双向的。一方面,模型的预测是可以解释的;另一方面,人类可以将先验知识注入模型的训练过程中。具体来说,当系统的人类输入改变了相应模型的表示和推理时(例如,通过提供当前CSU系统未知的关键信息),我们将模型表示为人类可以说的东西。我们相信,分析模型的可解释性也将有助于找到一种将先验知识注入模型的方法,从而使它们易于理解。因此,在剩下的部分中,我们将关注模型的可解释性。

人们可能会错误地认为可解释性只是以人类可以理解的方式解释学习模型(图2中的第2层)本身的能力。事实上,即使我们仔细研究人类的思维过程,我们发现我们并没有根据模型的低级参数实际解释模型的工作原理(在我们的大脑中)。我们确实做了预测,但根据大脑使用的学习算法或它选择在模型中表示信息(模型参数)的方式,我们没有证明我们的预测是正确的。相反,我们选择基于与模型响应和物理观察相关的先验信息来提供更多的理由,而不是事后分析。这意味着人们可以在许多不同的层次上定义可解释性:根据基础模型参数和用于训练模型的学习算法,或者根据模型的功能,或者甚至两者的组合。

事实上,正如在《[5》中所观察到的那样,可解释的概念甚至不是一个完整的概念,而是被分成几个不同的维度,概括如下:

模型透明度:这是由三个参数定义的:(I)可模拟性人类是否可以将输入数据与模型一起使用来重现预测所需的每个计算步骤。这使得人们能够理解由输入引起的模型参数的变化以及训练数据对模型参数的影响。(二)可分解性模型的所有参数是否有直观的解释;最后(iii)算法透明度解释学习算法如何工作的能力。例如,是选择线性回归模型还是深度非线性神经网络。

模型函数:(1)使用文本描述解释预测。为此,一个模型可用于预测,然后另一个模型可用于解释。可视化解释模型工作的另一种常见方法是通过参数的可视化。高维分布式表示的一种流行的可视化方法是t-SNE机制[25];最后(iii)局部解释这里不解释模型的整个映射,但是计算由给定输出类的特定输入向量引入的局部变化。输出梯度用于识别特定的权重和受输入向量影响的局部变化。

请注意,虽然上面的一些维度可以更好地解释模型,但是它们也会导致模型效率的损失。例如,使用简单特征的线性模型,即使有大量训练数据,也不能与神经网络对高维非线性数据的预测能力相比。

我们现在根据上述可解释的维度总结我们以前的工作。然后,我们分析并确定CSU当前面临的挑战。

a .以前解决模型可解释问题的方法

我们根据上面讨论的维度对现有技术方法进行分类。

深度学习网络由不同的单元组成。这使得基于梯度下降的学习算法能够反推和调整这些单元的权重,以最小化误差函数。最近,提出了分层相关传播算法[26],[27](LRP),其通过使用每个单元的区别特征将深层神经网络的输出分解成输入变量,并研究数据的哪些特征影响模型的输出。这是一种与泰勒分解密切相关的原理方法,适用于任何深度的神经网络结构。

LRP技术已经应用于[的脑电图分析28]。每个输入数据点的相关分数可以在最终决策中进行计算,然后可视化为热图,以提高模型的可解释性。

我们对字面解释的熟悉使它成为向人类解释模型的有效方式。现在,这个领域的最新工作集中在如何学习文本解释。作者在[29]将两个模块化组件发生器和编码器结合在一起操作,并学习预测的候选原理。它的基本原理只是满足输入文本中两个关键属性的词的子集。首先,所选单词代表简短且连贯的文本(例如短语),其次,所选单词必须能够单独提供预测以替换原始文本。对于给定的输入文本,生成器指定可能的基本原则的分布。编码器然后将基本原理映射到特定于任务的值。然后,将正则化编码器的损失函数最小化的分布作为模型预测的基本原则。

同样,单词矢量化模型可用于捕捉单词的语义上下文,并解释矢量[30的运算结果。在[31]中,作者提出了一种模型可视化技术来理解递归神经网络的工作原理。所有上述技术都可以提供对神经网络模型功能的深入理解。

b .联合背景下未解决的问题

我们考虑联合背景下模型的可解释性。使用通用模型做出的任何决定都必须有一个被所有代理接受的充分理由。这种证明只能通过一个可解释的模型来产生。此外,代理的策略约束可能要求它不能与其他代理共享原始数据。在这种情况下,成员可以训练本地模型并共享模型的预测结果(而不是原始数据)。对于其他代理,该预测结果不仅应该与置信度得分相关联,还应该为基于可解释模型的预测提供充分的理由。

在联邦环境中也有一些独特的挑战,可能会影响可解释模型的设计:每个代理的本地模型在体系结构上可能是异构的,使得使用分层相关传播(LRP)等技术变得困难。同样,由于不完全的信息共享,基于策略的约束可能使学习正确的可解释模型更加困难。

五、方法和突出问题概述

在前一节中,我们根据分布式深度学习框架的操作组件定义了联合情境理解问题。我们还发现了当前体系结构中的一些不足,例如:(1)在异构的、可能是敌对的环境中进行分布式模型学习;(2)时间序列数据的多尺度模式学习;(3)通过可解释和可解释的线模型的模型中的人的循环。我们需要弥补这些不足,以便这样一个框架能够在总体范围内发挥作用。此外,模型学习也是一个数据和计算密集型的过程。虽然我们可以通过集中更多的资源来满足对计算能力的需求,但是获得所需的训练数据量可能并不总是可行的,尤其是在临时联合的情况下。最后,深度学习模型不能很好地表达不确定性,这是人机交互周期中的关键因素。不确定性的量化也与模型的可解释性有关,因为它将影响人类对机器输出的信心[32]。

相反,贝叶斯推理为模型建立、推理、预测和决策提供了统一的框架。它对结果的不确定性和可变性有明确的解释,并且该框架对于模型过度拟合也是稳健的。贝叶斯规则提供了一个自动的“奥卡姆剃刀”效应,并惩罚不必要的复杂模型[33,[34]。然而,由于推理的计算处理,贝叶斯推理主要限于共轭和线性模型。

由此我们可以观察到贝叶斯推理和深度学习框架中有互补的元素。这一发现已被应用于最近的概率论机器学习(见[35)和贝叶斯深度学习(BDL)(尤其是[36)。简而言之,BDL的目标是在统一的概率框架内集成深度学习和贝叶斯模型。受BDL上述进展的启发,我们起草了一个初步框架来解决以下联合态势理解问题。

图5显示了我们处理CSU问题的方法,该方法关注的是循环中人的维度。请参考第一部分(图2)中描述的“水平”平面的“垂直”视图。我们观察可解释的深度学习网络,并行处理时间序列数据并提取多个时间尺度的模式,并将它们的输出(例如,下一个预测状态)输入贝叶斯网络。我们建立了一个深度学习模型,该模型在目标识别、语音识别、文本建模等感知任务中表现良好。贝叶斯网络将每个模型的输出连接到一个推理网络,然后使用这个推理网络进行推理,最后得到CSU。这种推理网络也可以接受用户以先验知识形式的输入。在这个领域已经做了一些初步的工作,这就是所谓的协作式深度学习[37]。这种在贝叶斯网络上先验分配的能力可以减少模型训练所需的训练数据量。此外,在[38]的贝叶斯网络中也研究了自动关联确定(ARD)的概念,这与深度学习中应用的分层关联传播技术非常相似。允许模型解释。因此,上述体系结构不仅可以在统一的概率模型中训练,而且解决了CSU实现中存在的困难。

我们设想用户将通过一个元信息层与系统交互,这个元信息层允许双向消息交换。一方面,人类可以使用这个层来提供apriori ,它可以是深度学习模型的隐藏单元、定义神经网络的参数或者指定因果推理的模型参数(在图中表示为贝叶斯网络)。如前所述,这些先验有助于避免过度拟合,尤其是当没有足够的训练数据时[36]。另一方面,这一层将模型输出转换成人类能够理解的形式(例如,语义上有意义的句子)。随着技术的发展,代理(人和机器)可以提供额外的元信息来更好地描述问题背景、额外的数据源和/或服务。

目前,图5所示体系结构的实施正在进行中,包括一些试点应用程序,这些应用程序混合了前几节中研究的DL技术和其他信号处理技术,以解决上述当前的不足。

6。结论和未来的工作

在本文中,我们已经确定为了在联合环境中有效地解决SU问题,基于DL的方法必须能够组合:

1)多模态数据;2)时间序列数据;3)信息流约束下的分布式学习;4)分类和建模(低级和高级的集成);5)人为因素(可解释和解释性)。

这些特性可能会出现在非联邦SU环境中,但是所有这些特性都会出现在联邦环境中。

除了描述联合环境中的SU问题之外,本文的主要贡献包括两个方面:(1)针对上述每一个需求,分析DL中的最新技术,找出差距的不足之处;(2)提出一个概念性的系统架构来支持解决这些不足的研究工作。我们最近的研究议程包括初步实施一系列已建立的架构,以结合上述要求解决一些具有挑战性的问题。展望未来,我们将致力于披露数据集和代码,以促进这一伟大领域的合作与发展。

谢谢

新闻排行
  1. 2018年6月19日,奥迪股份公司和福特汽车公司联合宣布,他们已经签署了一份谅解备忘录,探讨战略合作联盟的?

    2018年6月19日,奥迪股份公司和福特汽车公司联合宣布,他们已经签署了一份谅解备忘录,探讨战略合作联盟的?...

  2. 国庆节假期“在路上”。在新中国成立70周年之际,你准备好旅行并想看看这个伟大国家的壮丽景色了吗?在过去

    国庆节假期“在路上”。在新中国成立70周年之际,你准备好旅行并想看看这个伟大国家的壮丽景色了吗?在过去...

  3. 标题:Horizon作者:Patrickmodiano《地平线》内容简介:博斯曼斯,年纪很大,开始回忆自己的前世。他过去常常

    标题:Horizon作者:Patrickmodiano《地平线》内容简介:博斯曼斯,年纪很大,开始回忆自己的前世。他过去常常...

  4. 锘裤??銆?鎴戜滑镄勭敓娲绘槸瓒婃潵瓒婄箒蹇欎简锛屽緢澶氢汉閮芥槸镞╁崃椁愭瘮杈冮殢渚跨殑鍚冿紝鏅氶?

    锘裤??銆?鎴戜滑镄勭敓娲绘槸瓒婃潵瓒婄箒蹇欎简锛屽緢澶氢汉閮芥槸镞╁崃椁愭瘮杈冮殢渚跨殑鍚冿紝鏅氶?...

  5. 据国外媒体报道,微软正在中国寻找合适的合作伙伴,帮助其获得中国在线搜索市场的份额。微软大中华区首席执

    据国外媒体报道,微软正在中国寻找合适的合作伙伴,帮助其获得中国在线搜索市场的份额。微软大中华区首席执...

  6. Operationtimedoutaftermillisecondswith0outof-1bytesreceived要求保险机构建立人员资格准入和行为管理制?

    Operationtimedoutaftermillisecondswith0outof-1bytesreceived要求保险机构建立人员资格准入和行为管理制?...

  7. 今天又是一个阳光明媚的日子,气温一路攀升,仿佛屏住了呼吸。专注!专注!雨雪即将来临!今天下午4:10今天

    今天又是一个阳光明媚的日子,气温一路攀升,仿佛屏住了呼吸。专注!专注!雨雪即将来临!今天下午4:10今天...

  8. 原创名称:特色育种成就辉煌;“饲养豪猪一年挣2000元”中国江西网宜春新闻匡勇,邓龙华,记者陈郭巨摄影“?

    原创名称:特色育种成就辉煌;“饲养豪猪一年挣2000元”中国江西网宜春新闻匡勇,邓龙华,记者陈郭巨摄影“?...

  9. 锘裤??銆?銆?銆?濮滆呖楣忥纸鍙筹级鍜屽镓嬫嫾鎶㈡柊鍗庣ぞ鍙戙??銆?鏄ㄦ櫄锛?2019骞翠笢浜氭澂鍦ㄩ烦锲?

    锘裤??銆?銆?銆?濮滆呖楣忥纸鍙筹级鍜屽镓嬫嫾鎶㈡柊鍗庣ぞ鍙戙??銆?鏄ㄦ櫄锛?2019骞翠笢浜氭澂鍦ㄩ烦锲?...

  10. 随着时间的推移,电子竞技的影响力逐渐扩大。在最近的微博夜投票中,许多电子竞技玩家也比娱乐圈的明星赢得

    随着时间的推移,电子竞技的影响力逐渐扩大。在最近的微博夜投票中,许多电子竞技玩家也比娱乐圈的明星赢得...

友情链接