由于pyodbc不能安装到azuredatabricks,我尝试使用jdbc通过Python将数据插入到azuresql数据库中,但是我可以找到它的示例代码。在
jdbcHostname = "xxxxxxx.database.windows.net"
jdbcDatabase = "yyyyyy"
jdbcPort = 1433
#jdbcUrl = "jdbc:sqlserver://{0}:{1};database={2};user={3};password={4}".format(jdbcHostname, jdbcPort, jdbcDatabase, username, password)
jdbcUrl = "jdbc:sqlserver://{0}:{1};database={2}".format(jdbcHostname, jdbcPort, jdbcDatabase)
connectionProperties = {
"user" : jdbcUsername,
"password" : jdbcPassword,
"driver" : "com.microsoft.sqlserver.jdbc.SQLServerDriver"
}
pushdown_query = "(INSERT INTO test (a, b) VALUES ('val_a', 'val_b')) insert_test"
请建议如何用Python编写插入代码。 谢谢。在
实际上,似乎可以在databricks中安装pyodbc。在
有关详细信息,可以参考这个answer和这个blog。在
背着乔恩。。。这是我用来将数据从Azure databricks dataframe写入Azure SQL数据库的方法:
如果我可以补充,你也应该能够使用Spark数据帧来插入azuresql。只需使用从azuresql获取的连接字符串。在
相关问题 更多 >
编程相关推荐