Project: Flume-Hive
/**
 * Licensed to Cloudera, Inc. under one 
 * or more contributor license agreements.  See the NOTICE file 
 * distributed with this work for additional information 
 * regarding copyright ownership.  Cloudera, Inc. licenses this file 
 * to you under the Apache License, Version 2.0 (the 
 * "License"); you may not use this file except in compliance 
 * with the License.  You may obtain a copy of the License at 
 * 
 *     http://www.apache.org/licenses/LICENSE-2.0 
 * 
 * Unless required by applicable law or agreed to in writing, software 
 * distributed under the License is distributed on an "AS IS" BASIS, 
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. 
 * See the License for the specific language governing permissions and 
 * limitations under the License. 
 */
package com.cloudera.flume.handlers.hdfs; 
 
import java.io.IOException; 
import java.util.HashMap; 
import java.util.Map; 
import java.util.Map.Entry; 
 
import org.apache.commons.lang.StringUtils; 
import org.apache.hadoop.fs.Path; 
import org.slf4j.Logger; 
import org.slf4j.LoggerFactory; 
 
import com.cloudera.flume.conf.Context; 
import com.cloudera.flume.conf.FlumeConfiguration; 
import com.cloudera.flume.conf.FlumeSpecException; 
import com.cloudera.flume.conf.SinkFactory.SinkBuilder; 
import com.cloudera.flume.core.Event; 
import com.cloudera.flume.core.EventSink; 
import com.cloudera.flume.handlers.text.FormatFactory; 
import com.cloudera.flume.handlers.text.output.OutputFormat; 
import com.cloudera.flume.handlers.text.output.RawOutputFormat; 
import com.google.common.base.Preconditions; 
 
/**
 * Writes events the a file give a hadoop uri path. If no uri is specified It 
 * defaults to the set by the given configured by fs.default.name config 
 * variable. The user can specify an output format for the file. If none is 
 * specified the default set by flume.collector.outputformat in the 
 * flumeconfiguration file is used. 
 *  
 * TODO (jon) eventually, the CustomDfsSink should be replaced with just a 
 * EventSink. 
 *  
 * TODO (jon) this is gross, please deprecate me. 
 */
 
public class EscapedCustomDfsSink extends EventSink.Base { 
  static final Logger LOG = LoggerFactory.getLogger(EscapedCustomDfsSink.class); 
  final String path; 
  OutputFormat format; 
 
  CustomDfsSink writer = null
  Event localEvent; 
   
  // We keep a - potentially unbounded - set of writers around to deal with 
  // different tags on events. Therefore this feature should be used with some 
  // care (where the set of possible paths is small) until we do something 
  // more sensible with resource management. 
  final Map<String, CustomDfsSink> sfWriters = new HashMap<String, CustomDfsSink>(); 
 
  // Used to short-circuit around doing regex matches when we know there are 
  // no templates to be replaced. 
  boolean shouldSub = false
  private String filename = ""
  protected String absolutePath = ""
  protected String hiveTableName = ""
  protected boolean runMarkerQueries = false
  protected String elasticSearchUrl = "", elasticIndex = "", elasticType = ""
   
 
  public EscapedCustomDfsSink(String path, String filename, OutputFormat o) { 
    this.path = path; 
    this.filename = filename; 
    shouldSub = Event.containsTag(path) || Event.containsTag(filename); 
    this.format = o; 
    absolutePath = path; 
    if (filename != null && filename.length() > 0) { 
      if (!absolutePath.endsWith(Path.SEPARATOR)) { 
        absolutePath += Path.SEPARATOR; 
      } 
      absolutePath += this.filename; 
    } 
  } 
   
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName, OutputFormat o) { 
    this.path = path; 
    this.filename = filename; 
    shouldSub = Event.containsTag(path) || Event.containsTag(filename); 
    this.format = o; 
    absolutePath = path; 
    this.hiveTableName = hiveTableName; 
     
    if (filename != null && filename.length() > 0) { 
      if (!absolutePath.endsWith(Path.SEPARATOR)) { 
        absolutePath += Path.SEPARATOR; 
      } 
      absolutePath += this.filename; 
    } 
  } 
 
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName, OutputFormat o, String elasticSearchUrl, String elasticIndex, String elasticType) { 
    this.path = path; 
    this.filename = filename; 
    shouldSub = Event.containsTag(path) || Event.containsTag(filename); 
    this.format = o; 
    absolutePath = path; 
    this.hiveTableName = hiveTableName; 
    this.elasticSearchUrl = elasticSearchUrl; 
    this.elasticIndex = elasticIndex; 
    this.elasticType = elasticType; 
     
    if (filename != null && filename.length() > 0) { 
      if (!absolutePath.endsWith(Path.SEPARATOR)) { 
        absolutePath += Path.SEPARATOR; 
      } 
      absolutePath += this.filename; 
    } 
  } 
 
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName, OutputFormat o, String elasticSearchUrl, String elasticIndex, String elasticType, boolean runMarkerQueries) { 
    this.path = path; 
    this.filename = filename; 
    this.runMarkerQueries = runMarkerQueries; 
    shouldSub = Event.containsTag(path) || Event.containsTag(filename); 
    this.format = o; 
    absolutePath = path; 
    this.hiveTableName = hiveTableName; 
    this.elasticSearchUrl = elasticSearchUrl; 
    this.elasticIndex = elasticIndex; 
    this.elasticType = elasticType; 
     
    if (filename != null && filename.length() > 0) { 
      if (!absolutePath.endsWith(Path.SEPARATOR)) { 
        absolutePath += Path.SEPARATOR; 
      } 
      absolutePath += this.filename; 
    } 
  } 
 
 
 
  static protected OutputFormat getDefaultOutputFormat() { 
    try { 
      return FormatFactory.get().getOutputFormat( 
          FlumeConfiguration.get().getDefaultOutputFormat()); 
    } catch (FlumeSpecException e) { 
      LOG.warn("format from conf file not found, using default", e); 
      return new RawOutputFormat(); 
    } 
  } 
 
  public EscapedCustomDfsSink(String path, String filename) { 
    this(path, filename, getDefaultOutputFormat()); 
  } 
   
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName) { 
    this(path, filename, hiveTableName, getDefaultOutputFormat()); 
  } 
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName, String elasticSearchUrl, String elasticIndex, String elasticType) { 
    this(path, filename, hiveTableName, getDefaultOutputFormat(), elasticSearchUrl, elasticIndex, elasticType); 
  } 
  public EscapedCustomDfsSink(String path, String filename, String hiveTableName, String elasticSearchUrl, String elasticIndex, String elasticType, boolean runMarkerQueries) { 
    this(path, filename, hiveTableName, getDefaultOutputFormat(), elasticSearchUrl, elasticIndex, elasticType, runMarkerQueries); 
  } 
 
  protected CustomDfsSink openWriter(String p, Event e) throws IOException { 
    //LOG.info("Opening " + p); 
    CustomDfsSink w; 
    if (StringUtils.isNotBlank(elasticSearchUrl)) {  
      LOG.info("passing elastic sink args: ELASTICSEARCH: COLLECTOR SINK:"); 
      LOG.info("inside EscapedCustomDfsSink: URL: " + elasticSearchUrl + " Index: " + elasticIndex + " Type: " + elasticType); 
      w = new CustomDfsSink(p, format, e, hiveTableName, elasticSearchUrl, elasticIndex, elasticType, runMarkerQueries);   
    } else if (StringUtils.isNotBlank(hiveTableName)) { 
      w = new CustomDfsSink(p, format, e, hiveTableName); 
    } else { 
      w = new CustomDfsSink(p, format, e); 
    } 
    this.localEvent = e; 
    w.open(); 
    return w; 
  } 
 
  /**
   * Writes the message to an HDFS file whose path is substituted with tags 
   * drawn from the supplied event 
   */
 
  @Override 
  public void append(Event e) throws IOException { 
    CustomDfsSink w = writer; 
    if (shouldSub) { 
      String realPath = e.escapeString(absolutePath); 
      w = sfWriters.get(realPath); 
      if (w == null) { 
        w = openWriter(realPath,e); 
        sfWriters.put(realPath, w); 
      } 
    } 
    w.append(e); 
    super.append(e); 
  } 
 
  @Override 
  public void close() throws IOException { 
    if (shouldSub) { 
      for (Entry<String, CustomDfsSink> e : sfWriters.entrySet()) { 
        LOG.info("Closing " + e.getKey()); 
        e.getValue().close(); 
      } 
    } else { 
      LOG.info("Closing " + absolutePath); 
      if (writer == null) { 
        LOG.warn("EscapedCustomDfsSink's Writer for '" + absolutePath 
            + "' was already closed!"); 
        return
      } 
 
      writer.close(); 
      writer = null
    } 
  } 
 
  @Override 
  public void open() throws IOException { 
    if (!shouldSub) { 
      writer = openWriter(absolutePath, localEvent); 
    } 
  } 
 
  public static SinkBuilder builder() { 
    return new SinkBuilder() { 
      @Override 
      public EventSink build(Context context, String... args) { 
        Preconditions.checkArgument(args.length >= 1 && args.length <= 3
            "usage: escapedCustomDfs(\"[(hdfs|file|s3n|...)://namenode[:port]]/path\"" 
                + "[, file [,outputformat ]])"); 
 
        String filename = ""
        if (args.length >= 2) { 
          filename = args[1]; 
        } 
 
        String format = FlumeConfiguration.get().getDefaultOutputFormat(); 
        if (args.length >= 3) { 
          format = args[2]; 
        } 
 
        OutputFormat o; 
        try { 
          o = FormatFactory.get().getOutputFormat(format); 
        } catch (FlumeSpecException e) { 
          LOG.warn("Illegal format type " + format + ".", e); 
          o = null
        } 
        Preconditions.checkArgument(o != null"Illegal format type " + format 
            + "."); 
 
        return new EscapedCustomDfsSink(args[0], filename, o); 
      } 
    }; 
  } 
}