Java自学者论坛

 找回密码
 立即注册

手机号码,快捷登录

恭喜Java自学者论坛(https://www.javazxz.com)已经为数万Java学习者服务超过8年了!积累会员资料超过10000G+
成为本站VIP会员,下载本站10000G+会员资源,会员资料板块,购买链接:点击进入购买VIP会员

JAVA高级面试进阶训练营视频教程

Java架构师系统进阶VIP课程

分布式高可用全栈开发微服务教程Go语言视频零基础入门到精通Java架构师3期(课件+源码)
Java开发全终端实战租房项目视频教程SpringBoot2.X入门到高级使用教程大数据培训第六期全套视频教程深度学习(CNN RNN GAN)算法原理Java亿级流量电商系统视频教程
互联网架构师视频教程年薪50万Spark2.0从入门到精通年薪50万!人工智能学习路线教程年薪50万大数据入门到精通学习路线年薪50万机器学习入门到精通教程
仿小米商城类app和小程序视频教程深度学习数据分析基础到实战最新黑马javaEE2.1就业课程从 0到JVM实战高手教程MySQL入门到精通教程
查看: 754|回复: 0

复制本地文件到HDFS本地测试异常

[复制链接]
  • TA的每日心情
    奋斗
    2024-4-6 11:05
  • 签到天数: 748 天

    [LV.9]以坛为家II

    2034

    主题

    2092

    帖子

    70万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    705612
    发表于 2021-6-8 07:51:58 | 显示全部楼层 |阅读模式

    项目中需要将本地文件拷贝到hdfs上,由于本人比较懒,于是使用擅长的Java程序通过Hadoop.FileSystem.CopyFromLocalFile方法来实现。 在本地(Window 7 环境)本地模式下运行却遇到了下述异常:

    An exception or error caused a run to abort: org.apache.hadoop.io.nativeio.NativeIO$Windows.createFileWithMode0(Ljava/lang/String;JJJI)Ljava/io/FileDescriptor; 
    java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.createFileWithMode0(Ljava/lang/String;JJJI)Ljava/io/FileDescriptor;
        at org.apache.hadoop.io.nativeio.NativeIO$Windows.createFileWithMode0(Native Method)
        at org.apache.hadoop.io.nativeio.NativeIO$Windows.createFileOutputStreamWithMode(NativeIO.java:559)
        at org.apache.hadoop.fs.RawLocalFileSystem$LocalFSFileOutputStream.<init>(RawLocalFileSystem.java:219)
        at org.apache.hadoop.fs.RawLocalFileSystem$LocalFSFileOutputStream.<init>(RawLocalFileSystem.java:209)
        at org.apache.hadoop.fs.RawLocalFileSystem.createOutputStreamWithMode(RawLocalFileSystem.java:307)
        at org.apache.hadoop.fs.RawLocalFileSystem.create(RawLocalFileSystem.java:295)
        at org.apache.hadoop.fs.RawLocalFileSystem.create(RawLocalFileSystem.java:328)
        at org.apache.hadoop.fs.ChecksumFileSystem$ChecksumFSOutputSummer.<init>(ChecksumFileSystem.java:388)
        at org.apache.hadoop.fs.ChecksumFileSystem.create(ChecksumFileSystem.java:451)
        at org.apache.hadoop.fs.ChecksumFileSystem.create(ChecksumFileSystem.java:430)
        at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:920)
        at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:901)
        at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:798)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:368)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:341)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:292)
        at org.apache.hadoop.fs.LocalFileSystem.copyFromLocalFile(LocalFileSystem.java:82)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:1882)

    通过分析异常堆栈可知,

    org.apache.hadoop.io.nativeio.NativeIO$Windows.createFileWithMode0方法发生了异常,createFileWithMode0方法的实现如下:
        /** Wrapper around CreateFile() with security descriptor on Windows */
        private static native FileDescriptor createFileWithMode0(String path,
            long desiredAccess, long shareMode, long creationDisposition, int mode)
            throws NativeIOException;

    通过代码可知,这个方法是hadoop不支持的方法。那么为什么会调用这个方法,通过异常堆栈继续向上追踪,

    是在 org.apache.hadoop.fs.RawLocalFileSystem$LocalFSFileOutputStream.<init> 过程调用了nativeio.NativeIO$Windows类,对应的方法如下:

     1  private LocalFSFileOutputStream(Path f, boolean append,
     2         FsPermission permission) throws IOException {
     3       File file = pathToFile(f);
     4       if (permission == null) {
     5         this.fos = new FileOutputStream(file, append);
     6       } else {
     7         if (Shell.WINDOWS && NativeIO.isAvailable()) {
     8           this.fos = NativeIO.Windows.createFileOutputStreamWithMode(file,
     9               append, permission.toShort());
    10         } else {
    11           this.fos = new FileOutputStream(file, append);
    12           boolean success = false;
    13           try {
    14             setPermission(f, permission);
    15             success = true;
    16           } finally {
    17             if (!success) {
    18               IOUtils.cleanup(LOG, this.fos);
    19             }
    20           }
    21         }
    22       }
    23     }

    通过调用椎栈可知是上述代码第8行调用了NativeIO.Windows类。那么if判断应该是成立的,分析NativeIO.isAvailable方法代码如下:

    1   /**
    2    * Return true if the JNI-based native IO extensions are available.
    3    */
    4   public static boolean isAvailable() {
    5     return NativeCodeLoader.isNativeCodeLoaded() && nativeLoaded;
    6   }

    isAvailable方法主要是调用NativeCodeLoader.isNativeCodeLoaded方法

     1  static {
     2     // Try to load native hadoop library and set fallback flag appropriately
     3     if(LOG.isDebugEnabled()) {
     4       LOG.debug("Trying to load the custom-built native-hadoop library...");
     5     }
     6     try {
     7       System.loadLibrary("hadoop");
     8       LOG.debug("Loaded the native-hadoop library");
     9       nativeCodeLoaded = true;
    10     } catch (Throwable t) {
    11       // Ignore failure to load
    12       if(LOG.isDebugEnabled()) {
    13         LOG.debug("Failed to load native-hadoop with error: " + t);
    14         LOG.debug("java.library.path=" +
    15             System.getProperty("java.library.path"));
    16       }
    17     }
    18     
    19     if (!nativeCodeLoaded) {
    20       LOG.warn("Unable to load native-hadoop library for your platform... " +
    21                "using builtin-java classes where applicable");
    22     }
    23   }
    24 
    25   /**
    26    * Check if native-hadoop code is loaded for this platform.
    27    * 
    28    * @return <code>true</code> if native-hadoop is loaded, 
    29    *         else <code>false</code>
    30    */
    31   public static boolean isNativeCodeLoaded() {
    32     return nativeCodeLoaded;
    33   }

    通过可以看到,isNativeCodeLoaded方法就是返回一个属性值,那么问题出现在什么地方呢?

    经过分析NativeCodeLoaded类的静态构造函数,有一个“System.loadLibrary("hadoop")”方法。 是不是这个方法导致的呢?通过在其他同事环境上调试,System.loadLibrary("hadoop") 会异常,从而运行catch部分,但是本人电脑却不会异常,直接继续运行。那么System.loadLibrary方法是什么用途呢,通过分析源码知道,这个方法是加载本地系统和用户的环境变量的。进而分析是因为本人在C:\\Windows\System32目录下有hadoop.dll文件或环境变量Path中配置了%Hadoop_Home%/bin目录而导致的。

    简而言之,是因为配置的系统环境变量Path的任意目录下存在hadoop.dll文件,从而被认为这是一个hadoop集群环境,但是hadoop集群又不支持window环境而产生的异常。处理方法也很简单,检查系统环境变量Path下的每一个目录,确保没有hadoop.dll文件即可。

    如果是删除系统环境变量Path的某一个目录,需要重启Intellij Idea后ClassLoader类中的usr_paths或sys_paths才会生效。

     

    哎...今天够累的,签到来了1...
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|小黑屋|Java自学者论坛 ( 声明:本站文章及资料整理自互联网,用于Java自学者交流学习使用,对资料版权不负任何法律责任,若有侵权请及时联系客服屏蔽删除 )

    GMT+8, 2024-4-28 17:32 , Processed in 0.068177 second(s), 29 queries .

    Powered by Discuz! X3.4

    Copyright © 2001-2021, Tencent Cloud.

    快速回复 返回顶部 返回列表