草庐IT

Zend_Db_table

全部标签

java - JUnit + Derby + Spring : drop in-memory db after every test

在我的单元测试中,我Autowiring了一些使用URL的数据源jdbc:derby:memory:mydb;create=true创建内存数据库。要删除内存中的Derby数据库,您必须连接:jdbc:derby:memory:mydb;drop=true我希望在每次测试后都发生这种情况,并从一个新的数据库开始。我如何使用Spring执行此操作? 最佳答案 HowtoshutdownDerbyin-memorydatabaseProperly给了我一个解决方案的提示:mydb.drop.url=jdbc:derby:memory:m

java - 使用 Kafka Streams 开发时,Lib 上的 UnsatisfiedLinkError 会影响 DB dll

我正在我的开发Windows机器上编写KafkaStreams应用程序。如果我尝试使用KafkaStreams的leftJoin和branch功能,在执行jar应用程序时会出现以下错误:Exceptioninthread"StreamThread-1"java.lang.UnsatisfiedLinkError:C:\Users\user\AppData\Local\Temp\librocksdbjni325337723194862275.dll:Can'tfinddependentlibrariesatjava.lang.ClassLoader$NativeLibrary.load(

java - H2 数据库 : referring to a table in root schema from a foreign key constraint

给定根架构中的表:CREATETABLEuser(usernameVARCHAR(50),passwordVARCHAR(50));和Quiz模式中的表:CREATETABLEQuiz.Results(usernameVARCHAR(50),pointsINT,FOREIGNKEY(username)REFERENCESuser(username));我无法实际创建外键,因为数据库声称表user实际上并不存在。我也不能随后添加外键:ALTERTABLEQUIZ.RESULTSADDFOREIGNKEY(username)REFERENCESuser(username)当然,这两个表都存

java - PreparedStatement : How to insert data into multiple tables using JDBC

有人能告诉我以下JDBC代码中是否需要第一个stmt.close();来针对两个不同的表执行两个不同的SQL查询吗?publicclassMyService{privateConnectionconnection=null;publicvoidsave(Bookbook){try{Class.forName("com.mysql.jdbc.Driver");connection=DriverManager.getConnection("jdbc:mysql://localhost:3306/mydb","root","password");PreparedStatementstmt=c

java - "the hash table is open"在Java中是什么意思?

我在阅读有关Hashtable类的Javaapi文档时遇到了几个问题。在文档中,它说“Notethatthehashtableisopen:inthecaseofa"hashcollision",asinglebucketstoresmultipleentries,whichmustbesearchedsequentially.”我自己尝试了以下代码Hashtableme=newHashtable();me.put("one",newInteger(1));me.put("two",newInteger(2));me.put("two",newInteger(3));System.ou

java - tomcat启动报错: DB name not found

在启动Tomcat时,出现以下错误:SEVERE:ExceptionlookingupUserDatabaseunderkeyUserDatabasejavax.naming.NameNotFoundException:NameUserDatabaseisnotboundinthisContextatorg.apache.naming.NamingContext.lookup(NamingContext.java:770)atorg.apache.naming.NamingContext.lookup(NamingContext.java:153)atorg.apache.catali

java - hibernate : Splitting table automatically every month

我正在使用PostgreSQL和Hibernate开发一个Spring-MVC应用程序,其中我有几个表的行数超过10万(10万)。这些表,我95%的时间只访问最新的数据,筛选所有这些行非常耗时。很多时候查询规划器甚至不使用索引(出于我不知道的原因)。然后我想到每周拆分数据库表,这样我们就可以先访问最近几个月的数据库,然后如果用户请求,则直接将以前表的更多结果添加到请求中。执行的大多数查询都需要JOIN,因为表是一对多映射的。行数大于10万的模型文件之一。型号:@Entity@Table(name="groupnotehistory")publicclassGroupNoteHistor

java - 关闭 derby 网络服务器不会删除 db.lck

我正在尝试使用默认端口从我的Java应用程序以网络服务器模式启动Derby。服务器启动成功。现在我尝试连接到服务器上名为“myDB”的数据库。建立连接并成功创建db.lck。然后,我进行了一些事务,优雅地提交并关闭了连接。我看到db.lck仍然存在。然后我关闭网络服务器。我希望在所有这些操作结束时删除db.lck文件。但它留下来了。(PS:操作系统是Windows)代码如下:1)启动服务器:System.setProperty("derby.system.home","C:\\SI\\testDerby");System.setProperty("derby.drda.traceDir

java - 京都内阁/伯克利 DB : Hash table size limitations

我很难在我的SSD上存储数亿个16/32字节的键/值对和哈希数组。WithKyotoCabinet:正常工作时,它以70000条记录/秒的速度插入。一旦下降,它就会下降到10-500条记录/秒。使用默认设置,丢弃发生在大约一百万条记录之后。查看文档,这是数组中桶的默认数量,所以这是有道理的。我将这个数字增加到2500万,事实上,在大约2500万条记录之前它工作正常。问题是,一旦我将桶的数量推到3000万或更多,插入率从一开始就下降到10-500条记录/秒。KyotoCabinet没有设计成在创建数据库后增加桶的数量,所以我不能插入超过2500万条记录。1/为什么一旦桶数超过25M,KC

java - 通过JBDC获取在IBM DB2 V6R1 (AS400)上插入的行数

我们最近迁移到AS400上较新的V6R1版本的DB2,我们使用Spring框架(v.2.5.6.)与数据库通信。我们正在调用Spring的NamedParameterJdbcTemplate.update()方法来插入新行,这个方法应该返回插入行的数量,但没有发生什么(结果我们得到零返回)虽然行被定期插入.我们得出的结论是,如果insert语句中没有主键列,一切正常,所以PK列自增时没有问题,但在某些情况下我们必须插入PK值,然后我们必须以某种方式应对定期出现的情况插入的行未在JDBC或Spring中注册。有人可以帮忙吗? 最佳答案