本文主要介绍现在通过Visual Studio Code扩展进行PySpark作业时可运用的一些功能,和可实现的更便捷的操作。
近日,微软宣布Visual Studio Code支持SQL Server 2019大数据群集PySpark开发和查询。它为Azure Data Studio提供了补充功能,可供数据工程师在数据科学家的数据探索和试验之后编写和生产PySpark作业。Visual Studio Code Apache Spark和Hive扩展使您可以享受跨平台和增强的轻量级Python编辑功能,它涵盖了有关Python编写、调试、Jupyter Notebook集成以及类似于交互式查询的笔记型计算机的场景。
通过Visual Studio Code扩展,您可以享受本机Python编程体验,比如linting、调试支持、语言服务等。您可以为PY文件运行当前行、运行选定的代码行或全部运行,可以导入和导出一个.ipynb笔记本,并执行类似于“运行单元格”、“在上方运行”或“在下方运行”的查询笔记本,可以享受像笔记本电脑一样的交互式体验,其中包括您的源代码和标记注释以及运行结果和输出,可以在交互式结果窗口中删除不需要的部分、输入注释或键入其他代码。此外,您还可以通过matplotlib(如Jupyter Notebook)以图形格式可视化结果。
与SQL Server 2019大数据集群的集成使您能够快速向大数据集群提交PySpark批处理作业并监视作业进度。
主要功能亮点
-
您可以链接到SQL Server。该工具包使您可以连接PySpark作业并将其提交到SQL Server 2019大数据群集。
-
Python编辑。开发具有本地Python创作支持(例如IntelliSense、自动格式、错误检查等)的PySpark应用程序。
-
Jupyter Notebook集成。导入和导出.ipynb文件。
-
PySpark交互式。运行选定的代码行,或运行诸如PySpark单元格之类的笔记本,以及交互式可视化。
-
PySpark批处理。将PySpark应用程序提交到SQL Server 2019大数据群集。
-
PySpark监视。与Apache Spark历史记录服务器集成以查看作业历史记录、调试和诊断Spark作业。
如何安装或更新
首先,安装Visual Studio Code,然后下载适用于Linux或Mac的Mono4.2.x。然后转到Visual Studio Code扩展存储库或Visual Studio Code市场并搜索Spark,获取最新的Apache Spark和Hive工具。
网·1024程序员节,DevExpress、MyEclipse、Axure RP、Aspose、FastReport等产品限时放“价”,给你专属宠爱!点击下方图片查看活动详情↓↓↓
标签:
来源:慧都
声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!