草庐IT

建筑物能源消耗预测

全部标签

c++ - 预测C++程序运行时间

如果程序执行不同的功能(使用数据库、读取文件、解析xml等),如何预测C++程序的运行时间?安装人员是如何做到的? 最佳答案 他们不预测时间。他们计算要在操作总数上完成的操作数。 关于c++-预测C++程序运行时间,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/1947912/

java - 类、静态方法或实例方法 - 编译语言中的内存消耗和可执行文件大小?

我一直想知道如何尝试提高我的Flexswf的性能和大小,类与静态方法与实例方法如何影响性能和最终编译的“可执行文件”的大小?思考如何应用类似HAML的东西和Sass弯曲...假设我正在构建一个包含大量组件和View的非常大的管理界面,并且每个组件都应用了一个Skin对象(考虑SparkSkinningArchitectureforFlex)。现在我想为每个皮肤添加10种不同的效果(假设屏幕上有100个组件,所以有1000个实例化效果)。是否更好:让每个效果成为一个类(BlurEffect、GlowEffect...),并将这10个添加到皮肤。让所有Effects成为一个更大类中的实例方

c++ - OpenSSl RAND_bytes 多久返回一次错误,因为缺乏不可预测性?

RAND_bytes的文档声称如果生成的随机字节是可预测的,该函数可能会返回错误。我的问题是此类错误有多频繁?可以在有限循环(比如5次尝试)中调用RAND_bytes然后抛出异常是解决此问题的合理方法,或多或少像这样:unsignedcharrandom_bytes[4];uint8_tattempts=0;while(RAND_bytes(random_bytes,sizeof(random_bytes))!=1&&++attempts!=5){}if(attempts==5){throwstd::runtime_error("randombytestoopredictableaft

ChatGPT突然疯了,意外输出震惊网友!OpenAI官方回应:token预测是根源​

ChatGPT突然疯了!失去理智!精神错乱!——一大批ChatGPT用户炸了锅。周二,「ChatGPT发疯」各种讨论话题纷纷刷榜Reddit,HN等各大社交平台。网友表示,「我收到了ChatGPT有史以来最诡异的回复」。随后,OpenAI官方确认了ChatGPT最新的bug,并已将其修复。ChatGPT疯了!!!ChatGPT究竟有多疯?回复幻觉垃圾,根本停不下来。显然GPT-4,已经出现了故障。还有人在线求助Altman。ChatGPT变疯,当然少不了马库斯的口水。他专门写了一篇文章来讲这件事。Reddit上r/ChatGPT板块下面,用户开始讨论ChatGPT的意外输出,「中风、精神错乱、

c++ - 按钮应该消耗鼠标事件吗?

现在,我的滚动条由3个按钮(它的子按钮)组成。这些按钮当前消耗鼠标的按下、向上、单击和拖动。滚动条然后连接到这3个按钮并执行它希望它们执行的操作。因此,在这种情况下,我不会使用我的GUI的新的bubble-up-the-stack功能。我仍然不太清楚什么时候应该使用它以及什么时候应该听取子事件。我目前的技术是否是一个很好的方法,或者我的按钮是否应该不使用这些事件并接收用于按钮的事件并根据这些事件执行操作?谢谢 最佳答案 在这种情况下,3个按钮(我假设向上、向下和slider)没有足够的信息来自行执行任何操作;他们能做的最好的事情就是

c++ - GCC 消耗太多内存!!图形工具

编译时graph-toolgcc编译器消耗了超过7Gb的内存,并且在消耗越来越多之后什么也没有发生,我被迫停止编译。我试图嵌入acompilersuffix:CFLAGS="$CFLAGS--paramggc-min-expand=0--paramggc-min-heapsize=8192"但我无法将它带入./configure过程。有人知道这个问题吗?(应该没什么区别,但我的操作系统是Archlinux-64)编辑(1):我现在能够添加CFLAGS进行配置,但它继续消耗无限数量的内存。我的Gcc版本是4.8.2!编辑(2):新版图形工具(2.2.28)解决了我的问题,因为他们修复了这

c++ - 预测 kD 树中所需的预分配节点数

我正在以广度优先的方式在数组表示中实现动态kD-Tree(将节点存储在std::vector中)。每个i-th非叶节点在(i处有一个左子节点和一个合适的child在(i.它将支持点的增量插入和点的集合。但是,我在确定增量预分配空间所需的可能节点数时遇到了问题。我找到了formulaontheweb,这似乎是错误的:N=min(m−1,2n−½m−1),wheremisthesmallestpowerof2greaterthanorequalton,thenumberofpoints.我对公式的实现如下:size_trequired(size_tn){size_tm=nextPowerO

c++ - 使用 TensorFlow 训练模型和 C API 进行预测

我通过构建libtensorflow.so目标构建了CAPI。我想加载一个预训练模型并对其进行推理以进行预测。我被告知我可以通过包含“c_api.h”头文件(以及将该文件和“libtensorflow.so”复制到适当的位置)来做到这一点,但是,我没有运气在网上找到任何关于它的例子。我所能找到的只是使用Bazel构建系统的示例,而我想使用另一个构建系统并将TensorFlow用作库。有人可以帮我举例说明如何导入a)元图文件;b)一个protobuf图形文件加上一个检查点文件,来进行预测?与下面的Python文件等效并使用g++构建的C++?#!/usr/bin/envpythonimp

c++ - 使用求和预测算法的理论平均情况效率和增长顺序

我需要使用求和/西格玛表示法预测算法相对于其输入大小的平均案例效率,以得出最终答案。许多资源使用求和来预测最坏情况,但我找不到有人解释如何预测平均情况,因此不胜感激分步回答。该算法包含一个嵌套的for循环,最内层循环中的基本操作:[代码编辑]编辑:如果进入第二个for循环并且没有break或return语句,则基本操作的执行将始终在第二个for循环内执行。但是:第一个for循环的末尾有return语句,它取决于基本操作中产生的值,因此数组的内容确实会影响算法每次运行时基本操作将执行的总次数。传递给算法的数组具有随机生成的内容我认为预测的平均案例效率是(n^2)/2,使其增长n^2阶/n

c++ - 急切加载整个模型以估计 Tensorflow Serving 的内存消耗

随着预测的执行,TensorflowServing惰性初始化模型DAG中的节点。这使得很难估计保存整个模型所需的内存(RAM)。是否有标准方法强制TensorflowServing将模型完全初始化/加载到内存中? 最佳答案 您可以使用模型预热来强制将所有组件加载到内存中。[1][1]https://www.tensorflow.org/tfx/serving/saved_model_warmup 关于c++-急切加载整个模型以估计TensorflowServing的内存消耗,我们在Sta