共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
3.
4.
5.
6.
Agilent的测试解决方案满足USB所有变体的一致性测试需要。通过选择Agilent示波器、BERT、网络分析仪和逻辑分析仪、各种特定的USB测试应用程序和夹具,能快速和精确地测试您的USB设计,以确保符合一致性要求。 相似文献
7.
8.
9.
10.
《电信工程技术与标准化》2014,(8):44-44
正7月28日,泰克公司日前宣布,其将在2014欧洲光纤通信展(ECOC 2014)上展示众多光测试与测量产品。泰克参展产品适合广泛的应用,包括高速数据通信和电信测试的40Gbit/s压力码型生成、多通道码型生成和多通道BERT测试以及对全球最复杂元件的相干光波信号分析与测试。来到泰克展台的参观者将获得亲身体验的机会,还能获得旨在帮助克服测试与测量 相似文献
11.
12.
13.
Teledyne LeCroy公司和Anritsu公司宣布合作提供强大的PCI Express 4.0(PCIe Gen4)测试解决方案,方案集成Anritsu信号质量分析仪(SQA)MP1900A BERT和Teledyne Lecroy LabMaster 10Zi-A示波器以及QPHY-PCIe4-Tx-Rx测试软件.这个测试系统为高速IC、设备和网络工程师提供了一个完整的解决方案来进行全自动的PCIE4.0发送端和接收端一致性测试,以及链路均衡验证. 相似文献
14.
BERT在各种自然语言处理任务上取得了优异的效果,但是,其在跨语言任务上并没有取得很好的结果,尤其是在机器翻译任务上。文中提出BERT增强的神经机器翻译(BE-NMT)模型,该模型分为三部分来提升神经机器翻译(NMT)模型对BERT输出表征的利用。首先,针对BERT在NMT任务上微调所造成的知识遗忘,使用一种掩码矩阵(MASKING)策略来缓解这种情况;其次,使用注意力机制的方式将BERT的输出表征融入NMT模型中,同时更好地权衡了模型中的多个注意力机制;最后,融合BERT的多层隐藏层输出来补充其最后一层隐藏层输出缺失的语言信息。在多个翻译任务上进行实验,结果表明提出的模型明显优于基线模型,在联合国平行语料库英文→中文翻译任务上提高了1.93个BLEU值。此外,文中的模型在其他翻译任务上也取得了不错的提升。 相似文献
15.
针对现有文本分类算法处理中文数据时存在的分类精度低、参数量庞大、模型难训练等问题,对BERT算法进行了优化.BERT算法处理中文文本时无法提取词向量特征,为此提出了均匀词向量卷积模块AWC.通过在传统卷积神经网络中引入注意力机制来提取可靠词向量特征,再进一步获取到文本的局部特征,由此弥补了BERT模型无法提取词向量的缺... 相似文献
16.
《国外电子元器件》2000,(12):44
Dallas公司日前推出第一个低电压的芯片式全特性误码率测试器DS21372。3.3伏的DS21372不但顺应低功耗系统的趋势,同时保持了5伏测试器的功能和经济性。BERT可用来检验通信设备(如多路器复用、路由器、信道交换器、数据服务器、数/模转换器)上信号传输的完整性。DS21372产生伪随机或自定义模式并发送给通信设备,然后反馈回来用于比较和诊断。 DS21372与微处理器直接设计在系统中,这样一经请求就可以提供测试源,通过软件命令以现场或遥控的方式测试设备,从而可节约时间和成本。与5伏测试器的52MHz处理速度相比,3.3伏BERT芯片0~20MHz的处理速度更符合现代工业低功耗的要求。同Dallas的5伏BERT一样,DS21372也可以产生T1、部分T1和其他通信协议所要求的回环模式。两种测试器都可以产生长达32比特的任何重复模式,而误码率低于1%。DS21372可以检验商业和工业的任何数字通信链接。 咨询编号:001236 相似文献
17.
为了深入了解新冠肺炎疫情期间微博用户舆论的焦点、更好地把握网络舆情的走向,本实验以疫情期间微博内容为基础,利用深度学习的相关算法,对数据内容进行情感分析。初始数据集已有一部分进行过人工标注,经过预处理后,将BiGRU与注意力机制相结合成BiGRU-attention模型对数据进行实验,TextCNN、BiGRU、BERT三种模型分类效果进行对比,实验结果证明,BiGRU-attention模型效果略优于TextCNN、BiGRU模型,相比于BERT模型则略差,证实在本数据集上BERT模型对文本分类的效果更加优秀,在后续实验中会对BERT模型进行更进一步地优化,以达到较好分类效果。 相似文献
18.
针对当前电网运营数据指标查询便捷性较差的问题,提出了基于BERT的电力指标查询统计专家库模型。该模型采用BERT语言建模方法对电力指标查询统计文本进行了处理,并将其转化为由词向量、句向量及位置向量叠加形成的输入文本向量。同时引入BERT预训练过程来实现上下文依赖关系,以进行初步挖掘。利用基于Transformer模型的深度语义识别模型,通过BERT精调过程深入挖掘输入文本与语义识别结果之间的内在联系。构建了涵盖准确率、召回率的评价指标来评估算法的性能。算例分析结果表明,相比于RNN-LSTM和BiLSTM-Attention模型,所提模型的评价指标更高且计算时间较少,故在准确性与计算速度方面均存在优势;同时将该文所提BERT模型应用于实际电力指标查询文本中,结果发现工作人员对线损率指标尤为关注,应将其作为电力企业运营评估的重要工程指标。 相似文献
19.
徐铮浩 《电子技术与软件工程》2020,(5):173-174
本文通过对文本分类和QA系统进行预处理,分别构建双向长短期记忆自注意力网络分类模型、Transformer分类模型和基于BERT的微调分类模型,进行模型的训练。实验结果表明,基于BERT的微调分类模型具有结构简单,训练参数较少,训练速度快等特点,并且拥有较高的准确率。 相似文献
20.
现有的医学健康问句数据大多数都是短文本,但短文本存在特征稀疏的局限性.对此,提出一种融合特征的方法,首先通过基于变换器的双向编码器表征技术(Bidirectional Encoder Representations from Transformers,BERT)字符级特征的输出取平均并与BERT句子级特征的输出进行拼接... 相似文献