2.4_数理统计的基本概念数理统计思维导图更多详细内容见notebook1.基本概念总体:研究对象的全体,它是一个随机变量,用XXX表示。个体:组成总体的每个基本元素。简单随机样本:来自总体XXX的nnn个相互独立且与总体同分布的随机变量X1,X2⋯ ,XnX_{1},X_{2}\cdots,X_{n}X1,X2⋯,Xn,称为容量为nnn的简单随机样本,简称样本。统计量:设X1,X2⋯ ,Xn,X_{1},X_{2}\cdots,X_{n},X1,X2⋯,Xn,是来自总体XXX的一个样本,g(X1,X2⋯ ,Xn)g(X_{1},X_{2}\cdots,X_{n})g(X1,X2
量化股票是什么意思?量化股票是将股票市场上的所有股票信息输入计算机,如股票涨跌历史数据、交易量历史数据、股票基本面历史数据、指数涨跌历史数据等,进行大数据分析。然后,根据大数据选择炒股成功率最高的方案,设计成计算机自动交易模式,称为定量交易。 股票量化交易的优势量化股票交易,冷静,这是超越人类交易者的最大优势之一,计算机没有感觉,不会受到市场情绪波动,非常客观和理性,不像人类交易,丰富的经验,会受到个人情绪波动,股市情绪,当然,高级人类交易员,影响较小,但完全不影响人类交易员很难做到。量化股票交易交易比人类最有经验、最有经验的交易者更有经验、更有经验、更有优势;人类资深交易者通过长期的股票市场
本文将会介绍BERT模型训练后动态量化(PostTrainingDynamicQuantization,PTDQ)。量化 在深度学习中,量化(Quantization)指的是使用更少的bit来存储原本以浮点数存储的tensor,以及使用更少的bit来完成原本以浮点数完成的计算。这么做的好处主要有如下几点:更少的模型体积,接近4倍的减少可以更快地计算,由于更少的内存访问和更快的int8计算,可以快2~4倍 PyTorch中的模型参数默认以FP32精度储存。对于量化后的模型,其部分或者全部的tensor操作会使用int类型来计算,而不是使用量化之前的float类型。当然,量化还需要底层硬件
1.概述词汇表征是指我们在自然语言处理(NLP)中如何描述和处理词语的方法。在进行NLP监督机器学习任务时,我们以一句话为例:“Iwantaglassoforange____”,我们要通过这句话中的其他单词来预测空白处的单词。这是一个典型的NLP问题。如果将其看作监督机器学习,我们的输入是上下文单词,而输出是要预测的目标单词,或者说目标单词的概率。为了解决这个问题,我们需要建立一个语言模型来学习输入和输出之间的映射关系。在深度学习中,这个模型通常是循环神经网络。在NLP中,最基本的单位是词语。词语可以组成句子,句子再构成段落、篇章和文档。但是计算机并不直接理解这些词语,因此我们需要将代表自然语
1、背景介绍1.1WebSocket介绍WebSocket是HTML5开始提供的一种在单个TCP连接上进行全双工通讯的协议。WebSocket使得客户端和服务器之间的数据交换变得更加简单,允许服务端主动向客户端推送数据。在WebSocketAPI中,浏览器和服务器只需要完成一次握手,两者之间就直接可以创建持久性的连接,并进行双向数据传输。在WebSocketAPI中,浏览器和服务器只需要做一个握手的动作,然后,浏览器和服务器之间就形成了一条快速通道。两者之间就直接可以数据互相传送。1.2WebSocket属性连接状态属性以下是WebSocket对象的属性:0-表示连接尚未建立。1-表示连接已建
在以前Pytorch只有一种量化的方法,叫做“eagermodequnatization”,在量化我们自定定义模型时经常会产生奇怪的错误,并且很难解决。但是最近,PyTorch发布了一种称为“fx-graph-mode-qunatization”的方方法。在本文中我们将研究这个fx-graph-mode-qunatization”看看它能不能让我们的量化操作更容易,更稳定。本文将使用CIFAR10和一个自定义AlexNet模型,我对这个模型进行了小的修改以提高效率,最后就是因为模型和数据集都很小,所以CPU也可以跑起来。importosimportcv2importtimeimporttorc
自监督学习算法在自然语言处理、计算机视觉等领域取得了重大进展。这些自监督学习算法尽管在概念上是通用的,但是在具体操作上是基于特定的数据模态的。这意味着需要为不同的数据模态开发不同的自监督学习算法。为此,本文提出了一种通用的数据增强技术,可以应用于任意数据模态。相较于已有的通用的自监督学习,该方法能够取得明显的性能提升,同时能够代替一系列为特定模态设计的复杂的数据增强方式并取得与之类似的性能。论文地址:https://arxiv.org/abs/2212.08663代码:https://github.com/microsoft/random_quantize简介当前Siamese表征学习/对比学
【AI实战】llama.cpp量化cuBLAS编译;nvccfatal:Value'native'isnotdefinedforoption'gpu-architecture'llama.cpp量化介绍llama.cpp编译GPU版1.错误描述2.错误排查解决方法1.查找native2.修改Makefile源码3.重新编译测试参考llama.cpp量化介绍对于使用LLaMA模型来说,无论从花销还是使用体验,量化这个步骤是不可或缺的。llama.cpp量化部署llama参考这篇文章:【AI实战】llama.cpp量化部署llama-33Bllama.cpp编译GPU版1.错误描述与cuBLAS一
QuantitativeFinance:量化金融之金融时间序列分析之ES/ETS/GARCH模型的简介、Box-Jenkins方法-AR/MA/ARMA/ARIMA模型的简介及其建模四大步骤之详细攻略目录时间序列预测模型之ES/HLES/HWES模型/ETS模型/GARCH模型的简介1、ES/HLES/HWES模型的概述
文章目录前言 一、Vitis-AIPytorch框架量化(vai_q_pytorch) 二、编写量化脚本并进行量化 三、模型编译 总结 前言 虽然Xilinx提供了Vitis-AI用户手册Vitis-AI2.5用户手册,但是其中对于一些安装和使用介绍极为简略,在安装和使用过程中碰到了一系列问题,所以在这里记录一下使用Vitis-AI过程中遇到的各种坑。 一、Vitis-AIPytorch框架量化(vai_q_pytorch) 我们使用的是pytorch框架的yolo模型,在使用vitis-ai量化前根据指导手册,要安装vai_q_pytorch,但是需要注意,我们在安装过程