udf函数开发_vba和python哪个容易学

Python (1) 2024-08-03 13:12

Hi,大家好,我是编程小6,很荣幸遇见你,我把这些年在开发过程中遇到的问题或想法写出来,今天说一说
udf函数开发_vba和python哪个容易学,希望能够帮助你!!!。

开发前的声明

        udf开发是在数据分析的时候如果内置的函数解析不了的情况下去做的开发,比方说你只想拆分一个字段,拼接一个字段之类的,就不要去搞udf了,这种基本的需求自带函数完全支持,具体参数可参考文档:

        http://spark.apache.org/docs/latest/api/sql/search.html?q=cast

        里面列举了所有函数的介绍和使用,推荐优先使用官方推出的,因为自己写的udf如果对一些异常处理不到位可能会导致数据分析的失败或者意想不到的情况。但是内置的函数真的满足不了那就真的没办法了,比如在做数据分析的时候经常使用的是ip解析,这个通常就需要自己开发udf了。

udf的分类

        udf平常用的多的也就两种,一种java写的,一种python 所写,下面对这两种情况分别做个简单的demo供大家参考。

udf for java(idea)

        1.创建maven工程

            file->project structure->modules->点击+号->new module->选择maven

            udf函数开发_vba和python哪个容易学_https://bianchenghao6.com/blog_Python_第1张

            点击next,填写groupid(对应包结构)、artifactid(maven仓库对应的坐标)

            source java 代码,操作如下图file->project structure,

            udf函数开发_vba和python哪个容易学_https://bianchenghao6.com/blog_Python_第2张

            点击apply,

        2.开始写java代码

            pom文件添加依赖   

 <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>1.1.0</version> </dependency> 

            udf函数开发_vba和python哪个容易学_https://bianchenghao6.com/blog_Python_第3张         

import org.apache.hadoop.hive.ql.exec.UDF;             public class HelloUdf  extends UDF {                     public String evaluate(String ip) {                             return ip+ip;                      }                     public int evaluate(int ip) {                             return ip+ip;                      }             }

 

       3.编包上传到hdfs

          在此项目pom文件的路径下执行mvn clean install

          将target文件中生成的jar文件上传到hdfs上,路径自己自定义,我直接上传到/。

          sudo -u hdfs hdfs dfs -put testudf-1.0-SNAPSHOT.jar /

      4.使用hivesql或者sparksql加载自定义函数

           beeline -u jdbc:hive2://node113.leap.com:10000 -n hive

           create function test.iptonum as 'com.test.HelloUdf' using jar 'hdfs:///testudf-1.0-SNAPSHOT.jar';

           (com.liubl.HelloUdf为代码类的全路径自己去粘贴一下)

           (测试sql见图)

           udf函数开发_vba和python哪个容易学_https://bianchenghao6.com/blog_Python_第4张

udf for python

        python udf入门我就不重新阐述了,我看到有一位同学的博客写的很清晰,推荐博客

        https://blog.csdn.net/_/article/details/

        存在的问题:   

            在数据清洗过程中,如果使用的是TransForm而不是UDF的话,因为Python是直接向系统申请资源的,而不是像ResourceManager申请资源,故会导致启动的Python脚本对内存和CPU的使用不可控,尤其是当启动多个Map时,因为一个map将启动一个Python因此,当同时运行的map有几十个时(测试集群较小),同时将尝试启动相同个数的python(资源够用的话仍然会启动几十个),且此时Map占用的内存是不会释放掉的他在一直等待Python的结果,这将导致python可用的资源仅仅是原本分配给系统的很少的资源(注:在安装Hadoop时,对于单个节点,一般仅仅给系统留出很少的内存,其他的内存全部分给了集群。例如32G物理内存的节点给系统和dataNode+nodeManager的内存就4-8个G,同时CPU核数也不足节点的一半,剩余的内存和cpu核数全部划分给集群使用。需要注意的是,这里虽然说是划分给集群使用,仅仅是逻辑上的划分,即规定集群可以使用的最大的物理内存,超过该内存时MR可以认为是不会抢占分配给系统+DataNode+nodeManager的内存的,但是当集群中没有MR在执行,即没有map或者reduce在执行时,划分给集群的这部分资源是可以被系统使用的。而若有map和Reduce在执行时,运行map和reduce的JVM的资源不会因为系统进程需要使用而被释放掉)所以,所有正在执行的Map一直在等待python的运行结果而没有释放掉其自身占用的资源,故python无法使用分配给集群的资源而只能使用预留给系统+nodeManager+DataNode的4-8G的内存和很少的cpu核数。因此会导致集群的资源无法被高效利用。

         综上,使用Transform(Python)执行效率低的根本原因在于Python是直接向操作系统申请资源,而不是向YARN的ResourceManager申请资源,故而导致节点的资源无法高效组织和被利用。此外,不要轻易使用transform!不要轻易使用transform!不要轻易使用transform

 

今天的分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。

下一篇

已是最新文章

发表回复