返回顶部
首页 > 资讯 > 精选 >pyspark自定义UDAF函数调用报错如何解决
  • 348
分享到

pyspark自定义UDAF函数调用报错如何解决

2023-07-02 07:07:49 348人浏览 安东尼
摘要

这篇文章主要讲解了“pyspark自定义UDAF函数调用报错如何解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“pyspark自定义UDAF函数调用报错如何解决”吧!问题场景:在Spark

这篇文章主要讲解了“pyspark自定义UDAF函数调用报错如何解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“pyspark自定义UDAF函数调用报错如何解决”吧!

问题场景:

在Sparksql中,因为需要用到自定义的UDAF函数,所以用pyspark自定义了一个,但是遇到了一个问题,就是自定义的UDAF函数一直报

AttributeError: 'NoneType' object has no attribute '_JVM'

问题描述

在新建的py文件中,先自定义了一个UDAF函数,然后在 if __name__ == '__main__': 中调用,死活跑不起来,一遍又一遍的对源码,看起来自定义的函数也没错:过程如下:

import decimalimport osimport pandas as pdfrom pyspark.sql import SparkSessionfrom pyspark.sql import functions as Fos.environ['SPARK_HOME'] = '/export/server/spark'os.environ["PYSPARK_python"] = "/root/anaconda3/bin/Python"os.environ["PYSPARK_DRIVER_PYTHON"] = "/root/anaconda3/bin/python"@F.pandas_udf('decimal(17,12)')def udaf_lx(qx: pd.Series, lx: pd.Series) -> decimal:    # 初始值 也一定是decimal类型    tmp_qx = decimal.Decimal(0)    tmp_lx = decimal.Decimal(0)    for index in range(0, qx.size):        if index == 0:            tmp_qx = decimal.Decimal(qx[index])            tmp_lx = decimal.Decimal(lx[index])        else:            # 计算lx: 计算后,保证数据小数位为12位,与返回类型的设置小数位保持一致            tmp_lx = (tmp_lx * (1 - tmp_qx)).quantize(decimal.Decimal('0.000000000000'))            tmp_qx = decimal.Decimal(qx[index])    return tmp_lxif __name__ == '__main__':    # 1) 创建 SparkSession 对象,此对象连接 Hive    spark = SparkSession.builder.master('local[*]') \        .appName('insurance_main') \        .config('spark.sql.shuffle.partitions', 4) \        .config('spark.sql.warehouse.dir', 'hdfs://node1:8020/user/hive/warehouse') \        .config('hive.metastore.uris', 'thrift://node1:9083') \        .enableHiveSupport() \        .getOrCreate()    # 注册UDAF 支持在SQL中使用    spark.udf.reGISter('udaf_lx', udaf_lx)    # 2) 编写SQL 执行    excuteSQLFile(spark, '_04_insurance_dw_prem_std.sql')

然后跑起来就报了以下错误:

Traceback (most recent call last):  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 835, in _parse_datatype_string    return from_ddl_datatype(s)  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 827, in from_ddl_datatype    sc._jvm.org.apache.spark.sql.api.python.PythonSQLUtils.parseDataType(type_str).JSON())AttributeError: 'NoneType' object has no attribute '_jvm'During handling of the above exception, another exception occurred:Traceback (most recent call last):  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 839, in _parse_datatype_string    return from_ddl_datatype("struct<%s>" % s.strip())  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 827, in from_ddl_datatype    sc._jvm.org.apache.spark.sql.api.python.PythonSQLUtils.parseDataType(type_str).json())AttributeError: 'NoneType' object has no attribute '_jvm'During handling of the above exception, another exception occurred:Traceback (most recent call last):  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 841, in _parse_datatype_string    raise e  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 831, in _parse_datatype_string    return from_ddl_schema(s)  File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 823, in from_ddl_schema    sc._jvm.org.apache.spark.sql.types.StructType.fromDDL(type_str).json())AttributeError: 'NoneType' object has no attribute '_jvm'

我左思右想,百思不得骑姐,嗐,跑去看 types.py里面的type类型,以为我的 udaf_lx 函数的装饰器里面的 &lsquo;decimal(17,12)&rsquo; 类型错了,但是一看,好家伙,types.py 里面的774行

_FIXED_DECIMAL = re.compile(r"decimal\(\s*(\d+)\s*,\s*(-?\d+)\s*\)")

这是能匹配上的,没道理啊!

原因分析及解决方案:

然后再往回看报错的信息的最后一行:

AttributeError: 'NoneType' object has no attribute '_jvm'

竟然是空对象没有_jvm这个属性!

一拍脑瓜子,得了,pyspark的SQL 在执行的时候,需要用到 JVM ,而运行pyspark的时候,需要先要为spark提供环境,也就说,内存中要有SparkSession对象,而python在执行的时候,是从上往下,将方法加载到内存中,在加载自定义的UDAF函数时,由于有装饰器@F.pandas_udf的存在 , F 则是pyspark.sql.functions, 此时加载自定义的UDAF到内存中,需要有SparkSession的环境提供JVM,而此时的内存中尚未有SparkSession环境!因此,将自定义的UDAF 函数挪到 if __name__ == '__main__': 创建完SparkSession的后面,如下:

import decimalimport osimport pandas as pdfrom pyspark.sql import SparkSessionfrom pyspark.sql import functions as Fos.environ['SPARK_HOME'] = '/export/server/spark'os.environ["PYSPARK_PYTHON"] = "/root/anaconda3/bin/python"os.environ["PYSPARK_DRIVER_PYTHON"] = "/root/anaconda3/bin/python"if __name__ == '__main__':    # 1) 创建 SparkSession 对象,此对象连接 hive    spark = SparkSession.builder.master('local[*]') \        .appName('insurance_main') \        .config('spark.sql.shuffle.partitions', 4) \        .config('spark.sql.warehouse.dir', 'hdfs://node1:8020/user/hive/warehouse') \        .config('hive.metastore.uris', 'thrift://node1:9083') \        .enableHiveSupport() \        .getOrCreate()    @F.pandas_udf('decimal(17,12)')    def udaf_lx(qx: pd.Series, lx: pd.Series) -> decimal:        # 初始值 也一定是decimal类型        tmp_qx = decimal.Decimal(0)        tmp_lx = decimal.Decimal(0)        for index in range(0, qx.size):            if index == 0:                tmp_qx = decimal.Decimal(qx[index])                tmp_lx = decimal.Decimal(lx[index])            else:                # 计算lx: 计算后,保证数据小数位为12位,与返回类型的设置小数位保持一致                tmp_lx = (tmp_lx * (1 - tmp_qx)).quantize(decimal.Decimal('0.000000000000'))                tmp_qx = decimal.Decimal(qx[index])        return tmp_lx    # 注册UDAF 支持在SQL中使用    spark.udf.register('udaf_lx', udaf_lx)    # 2) 编写SQL 执行    excuteSQLFile(spark, '_04_insurance_dw_prem_std.sql')

运行结果如图:

pyspark自定义UDAF函数调用报错如何解决

感谢各位的阅读,以上就是“pyspark自定义UDAF函数调用报错如何解决”的内容了,经过本文的学习后,相信大家对pyspark自定义UDAF函数调用报错如何解决这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

--结束END--

本文标题: pyspark自定义UDAF函数调用报错如何解决

本文链接: https://lsjlt.com/news/340512.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • pyspark自定义UDAF函数调用报错如何解决
    这篇文章主要讲解了“pyspark自定义UDAF函数调用报错如何解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“pyspark自定义UDAF函数调用报错如何解决”吧!问题场景:在Spark...
    99+
    2023-07-02
  • pyspark自定义UDAF函数调用报错问题解决
    目录问题场景:问题描述原因分析及解决方案:问题场景: 在SparkSQL中,因为需要用到自定义的UDAF函数,所以用pyspark自定义了一个,但是遇到了一个问题,就是自定义的UDA...
    99+
    2024-04-02
  • python自定义函数报错未定义怎么解决
    当你调用一个自定义函数时出现 "未定义" 的错误,可能是因为以下几个原因:1. 函数没有被正确定义:确保你在调用函数之前已经正确定义...
    99+
    2023-10-10
    python
  • mysql自定义函数如何调用
    本篇内容介绍了“mysql自定义函数如何调用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!操作步骤:1、首...
    99+
    2024-04-02
  • python如何调用自定义函数
    要调用自定义函数,需要按照以下步骤进行:1. 定义一个函数。例如,我们定义一个名为`add_numbers`的函数,用于求两个数的和...
    99+
    2023-09-29
    python
  • matlab如何自定义函数并调用
    要自定义一个函数并调用它,可以按照以下步骤进行:1. 创建一个新的.m文件,用于定义函数。可以使用MATLAB编辑器或任何文本编辑器...
    99+
    2023-09-05
    matlab
  • python中如何调用自定义函数
    要调用自定义函数,首先需要定义该函数,然后在需要调用该函数的地方使用函数名加上括号来调用它。例如: def my_function(...
    99+
    2024-03-14
    python
  • 如何调试 PHP 自定义函数?
    调试 php 自定义函数有多种方法:使用 debug_backtrace() 函数查看调用堆栈。使用 var_dump() 和 print_r() 函数检查变量值。使用 error_lo...
    99+
    2024-04-16
    调试 php
  • 如何调试自定义 PHP 函数?
    调试自定义 php 函数步骤:使用 var_dump() 和 print_r() 检查返回值。利用 error_log() 记录错误消息。安装 xdebug 扩展以设置断点和查看变量。使...
    99+
    2024-04-22
    调试 php函数 phpstorm
  • 解决python3中自定义wsgi函数,make_server函数报错的问题
    #coding:utf-8 from wsgiref.simple_server import make_server def RunServer(environ, start_response): ...
    99+
    2022-06-04
    函数 自定义 报错
  • JS自定义函数如何声明和调用
    本篇内容主要讲解“JS自定义函数如何声明和调用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“JS自定义函数如何声明和调用”吧! 函数...
    99+
    2024-04-02
  • 如何通过函数指针调用自定义 PHP 函数?
    函数指针是 php 中的数据类型,用于动态调用函数,无需明确指定函数名。要声明函数指针,请使用 $functionpointer = 'function_name' 语法。要调用函数指针...
    99+
    2024-04-22
    php 函数指针
  • shell自定义函数及参数调用解析
    一、定义函数 function fname(){statements;} 或 fname(){statements;} 二、调用函数 只需要使用函数名,即可调用某个函数:$ fname ; #执行函数 ...
    99+
    2022-06-04
    自定义 函数 参数
  • mysql怎么调用自定义函数
    mysql调用自定义函数的方法:1、在Navicat工具中点击界面上的“函数”。进入函数操作界面后点击新建函数。2、继续点击弹窗中的“函数”。3、设置函数的参数名和参数类型。设置完成后点击“下一步”。4、继续设置函数的返回类型。设置后点击“...
    99+
    2024-04-02
  • Python函数如何定义和调用
    这篇文章主要讲解了“Python函数如何定义和调用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python函数如何定义和调用”吧!Python函数的定义函...
    99+
    2024-04-02
  • Python中定义函数时出现 return outside function报错如何解决
    Python中定义函数时出现 return outside function报错如何解决,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。在Python中定义函数时报错&nbs...
    99+
    2023-06-04
  • JavaScript如何自定义函数
    这篇文章主要介绍“JavaScript如何自定义函数”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“JavaScript如何自定义函数”文章能帮助大家解决问题。JavaScript中的函数分为两种:系...
    99+
    2023-06-29
  • Python如何自定义函数
    小编给大家分享一下Python如何自定义函数,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!自定义函数import requestsfrom b...
    99+
    2023-06-27
  • hive3.0.0如何自定义函数
    这篇文章主要为大家展示了“hive3.0.0如何自定义函数”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“hive3.0.0如何自定义函数”这篇文章吧。示例代码package hello...
    99+
    2023-06-02
  • 如何自定义 PHP 函数?
    自定义 php 函数包括以下步骤:使用 function 关键字声明函数。指定函数名。定义参数(可选)。使用 return 语句返回数据(可选)。调用函数。 如何自定义 PHP 函数:...
    99+
    2024-04-10
    函数 php
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作