码迷,mamicode.com
首页 > 其他好文 > 详细

hadoop编程实践 - hdfs编程实现删除文件

时间:2019-09-03 22:39:12      阅读:123      评论:0      收藏:0      [点我收藏+]

标签:url   apache   系统   api   ring   文件夹   string   auth   删除文件   

package test.hdfs;

import java.io.IOException;
import java.net.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

/*
 *
 *  @authr:Kouch
 *  
 *  功能:变成实现删除hdfs上文件是否存在;一般配合判断文件是否存在使用;
 *  
 *  实现:调用hadoopAPI;
 *
 */
public class DeletedFile {

    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        //配置类
        Configuration conf=new Configuration();

        //模拟路径;
        String url="hdfs://localhost:9000/user/kouch/out6";
        
        //文件系统对象
        FileSystem fs=FileSystem.get(URI.create(url), conf);
        
        //注:配置怕段文件是否存在使用更有效;
        if(IsExsit.isExsit(fs, url)) {
            //System.out.println("kaishi删除");
            if(fs.delete(new Path(url), true)) {//true:文件夹下所有文件;false:如果此文件存在其他文件就不删除
                System.out.println("删除"+url);
            }
            //System.out.println("jieshu删除");
        }else {
            System.out.println(url+"不存在");
        }
        
        
    }
}

 



hadoop编程实践 - hdfs编程实现删除文件

标签:url   apache   系统   api   ring   文件夹   string   auth   删除文件   

原文地址:https://www.cnblogs.com/floakss/p/11455803.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!