最新!Visual Studio Code添加了对SQL Server 2019大数据群集PySpark开发和查询的支持

本文主要介绍现在通过Visual Studio Code扩展进行PySpark作业时可运用的一些功能,和可实现的更便捷的操作。

近日,微软宣布Visual Studio Code支持SQL Server 2019大数据群集PySpark开发和查询。它为Azure Data Studio提供了补充功能,可供数据工程师在数据科学家的数据探索和试验之后编写和生产PySpark作业。Visual Studio Code Apache Spark和Hive扩展使您可以享受跨平台和增强的轻量级Python编辑功能,它涵盖了有关Python编写、调试、Jupyter Notebook集成以及类似于交互式查询的笔记型计算机的场景。

通过Visual Studio Code扩展,您可以享受本机Python编程体验,比如linting、调试支持、语言服务等。您可以为PY文件运行当前行、运行选定的代码行或全部运行,可以导入和导出一个.ipynb笔记本,并执行类似于“运行单元格”、“在上方运行”或“在下方运行”的查询笔记本,可以享受像笔记本电脑一样的交互式体验,其中包括您的源代码和标记注释以及运行结果和输出,可以在交互式结果窗口中删除不需要的部分、输入注释或键入其他代码。此外,您还可以通过matplotlib(如Jupyter Notebook)以图形格式可视化结果。

与SQL Server 2019大数据集群的集成使您能够快速向大数据集群提交PySpark批处理作业并监视作业进度。

主要功能亮点

  1. 您可以链接到SQL Server。该工具包使您可以连接PySpark作业并将其提交到SQL Server 2019大数据群集。

  2. Python编辑。开发具有本地Python创作支持(例如IntelliSense、自动格式、错误检查等)的PySpark应用程序。

  3. Jupyter Notebook集成。导入和导出.ipynb文件。

  4. PySpark交互式。运行选定的代码行,或运行诸如PySpark单元格之类的笔记本,以及交互式可视化。

  5. PySpark批处理。将PySpark应用程序提交到SQL Server 2019大数据群集。

  6. PySpark监视。与Apache Spark历史记录服务器集成以查看作业历史记录、调试和诊断Spark作业。

如何安装或更新

首先,安装Visual Studio Code,然后下载适用于Linux或Mac的Mono4.2.x。然后转到Visual Studio Code扩展存储库或Visual Studio Code市场并搜索Spark,获取最新的Apache Spark和Hive工具。


网·1024程序员节DevExpressMyEclipseAxure RPAsposeFastReport等产品限时放“价”,给你专属宠爱!点击下方图片查看活动详情↓↓↓

QQ截图20191008171313.png

标签:

来源:慧都

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年9月8日
下一篇 2019年9月8日

相关推荐

发表回复

登录后才能评论