草庐IT

pandas-datareader

全部标签

Python Pandas to_sql 'append'

我正在尝试使用Python的pandasto_sql命令将月度数据发送到MySQL数据库。我的程序一次运行一个月的数据,我想将新数据附加到现有数据库中。然而,Python给我一个错误:_mysql_exceptions.OperationalError:(1050,"Table'cps_basic_tabulation'alreadyexists")这是我的连接和导出代码:conn=MySQLdb.connect(host=config.get('db','host'),user=config.get('db','user'),passwd=config.get('db','passw

python - 如何在 python pandas 的同一列上进行分组并计算唯一值和某些值的计数作为聚合?

我的问题与我之前的Question有关但它是不同的。所以我要问新问题。在上面的问题中,请参阅@jezrael的回答。df=pd.DataFrame({'col1':[1,1,1],'col2':[4,4,6],'col3':[7,7,9],'col4':[3,3,5]})print(df)col1col2col3col4014731147321695df1=df.groupby(['col1','col2']).agg({'col3':'size','col4':'nunique'})df1['result_col']=df1['col3'].div(df1['col4'])print

c# - DataReader + MySql Connector + Dispose

我遇到的问题仅在最新版本的MySQLConnector.Net(目前为6.10)上出现长期以来,我在MSSQL和MYSQL中都可以正常工作:创建数据库连接使用之前的连接创建DbCommand执行获取DbDataReader处理DbCommand,而不是连接(此时完成,因为它是一个包装类)从DbDataReader读取数据所有这些都在MSSQL和MYSQLv6.9中正常工作(甚至是SQLite,因为包装类处理它)现在,使用MySQLConnector6.10,当DbCommand被处置时,DataReader被关闭。我的问题是:任何人都可以确认这种行为会一直存在还是将来可能会恢复?让DB

python - Pandas to_sql - 在附加 DataFrame 时增加表的索引

我一直在努力开发一个以数据分析Python3.7.0脚本的日常执行为中心的产品。每天半夜会处理海量数据,然后将结果导出到两张MySQL表中。第一个表将仅包含与当天相关的数据,而另一个表将包含所有执行的串联数据。为了举例说明我目前有什么,请看下面的代码,假设df将是从数据分析中生成的最终DataFrame:importpandasaspdimportsqlalchemyengine=sqlalchemy.create_engine(r"mysql+pymysql://user:psswd@localhost/pathToMyDB")df=pd.DataFrame({'Something'

C# MySQL 在 DataReader while 循环中的第二个 DataReader

正如您可能已经从标题中猜到的,我正在尝试这样做:#regionchecknewnationsprivatevoidchecknewnations(){addtolog("server","Checkingfornewnations");stringsql="SELECT*FROM"+variables.tbl_nations+"WHEREnations_new=0";MySqlCommandcmd=newMySqlCommand(sql,connection);MySqlDataReaderreader=cmd.ExecuteReader();while(reader.Read()){

c# - 使用 DataReader 添加列值

使用C#和MySQL当我选择组合框值时,相应的值应该显示在文本框中C#代码。cmd2=newOdbcCommand("Selectnamefromuserswhereusername='"+cmbuser.Text+"'",con);dr=cmd2.ExecuteReader();while(dr.Read()){txtusername.Text=dr("user");}以上代码在VB.Net中有效,但在C#中显示错误为错误“dr'isa'field'butisusedlikea'method'”这行显示错误txtusername.Text=dr("user");如何解决这个错误,我的

python - 将 Pandas DataFrame 写入 MySQL 数据库

我正在尝试使用以下代码将pandas数据框写入MySQL数据库。importpandasaspdimportnumpyasnpfrompandas.ioimportsqlimportMySQLdbdf=pd.DataFrame([[1.1,1.1,1.1,2.6,2.5,3.4,2.6,2.6,3.4,3.4,2.6,1.1,1.1,3.3],list('AAABBBBABCBDDD'),[1.1,1.7,2.5,2.6,3.3,3.8,4.0,4.2,4.3,4.5,4.6,4.7,4.7,4.8]]).Tdb=MySQLdb.connect("192.168.56.101","ni

将索引转换为Pandas DataFrame列

我有以下pandasdataFrame:|id|LocTime|ZPos|XPosdatetime|2017-01-0200:14:39|20421902611|12531245409231|0|-62017-01-0200:14:40|30453291020|28332479673070|0|-2我想将DateTime索引转换为数据框的列。我试过了df.reset_index(level=['datetime'])但是结果没有改变。任何想法?看答案需要分配输出或inplace=True范围:df=df.reset_index()df.reset_index(inplace=True)prin

python - 带有 MySQL 的 pandas 可以支持文本索引吗?

如果我尝试在MySQL数据库中存储带有文本索引的数据框,我会收到错误消息“key规范中使用的BLOB/TEXT列没有key长度”,例如:importpandasaspdimportsqlalchemyassadf=pd.DataFrame({'Id':['AJP2008H','BFA2010Z'],'Date':pd.to_datetime(['2010-05-05','2010-07-05']),'Value':[74.2,52.3]})df.set_index(['Id','Date'],inplace=True)engine=sa.create_engine(db_connect

python - pandas to_sql 截断了我的数据

我正在使用df.to_sql(con=con_mysql,name='testdata',if_exists='replace',flavor='mysql')将数据框导出到mysql。但是,我发现长字符串内容(例如url)的列被截断为63位。导出时,我从ipythonnotebook收到以下警告:/usr/local/lib/python2.7/site-packages/pandas/io/sql.py:248:Warning:Datatruncatedforcolumn'url'atrow3cur.executemany(insert_query,data)对于不同的行,还有其他