PageRenderTime 50ms CodeModel.GetById 1ms app.highlight 44ms RepoModel.GetById 1ms app.codeStats 0ms

/tags/release-0.2.0-rc0/hive/external/ql/src/test/org/apache/hadoop/hive/ql/io/RecordTestObj.java

#
Java | 276 lines | 249 code | 24 blank | 3 comment | 37 complexity | eb50735e0ce155799bd7aad66e694bcb MD5 | raw file
  1// File generated by hadoop record compiler. Do not edit.
  2package org.apache.hadoop.hive.ql.io;
  3
  4public class RecordTestObj extends org.apache.hadoop.record.Record {
  5  private static final org.apache.hadoop.record.meta.RecordTypeInfo _rio_recTypeInfo;
  6  private static org.apache.hadoop.record.meta.RecordTypeInfo _rio_rtiFilter;
  7  private static int[] _rio_rtiFilterFields;
  8  static {
  9    _rio_recTypeInfo = new org.apache.hadoop.record.meta.RecordTypeInfo(
 10        "RecordTestObj");
 11    _rio_recTypeInfo.addField("s",
 12        org.apache.hadoop.record.meta.TypeID.StringTypeID);
 13    _rio_recTypeInfo.addField("num",
 14        org.apache.hadoop.record.meta.TypeID.LongTypeID);
 15  }
 16
 17  private String s;
 18  private long num;
 19
 20  public RecordTestObj() {
 21  }
 22
 23  public RecordTestObj(final String s, final long num) {
 24    this.s = s;
 25    this.num = num;
 26  }
 27
 28  public static org.apache.hadoop.record.meta.RecordTypeInfo getTypeInfo() {
 29    return _rio_recTypeInfo;
 30  }
 31
 32  public static void setTypeFilter(
 33      org.apache.hadoop.record.meta.RecordTypeInfo rti) {
 34    if (null == rti) {
 35      return;
 36    }
 37    _rio_rtiFilter = rti;
 38    _rio_rtiFilterFields = null;
 39  }
 40
 41  private static void setupRtiFields() {
 42    if (null == _rio_rtiFilter) {
 43      return;
 44    }
 45    // we may already have done this
 46    if (null != _rio_rtiFilterFields) {
 47      return;
 48    }
 49    int _rio_i, _rio_j;
 50    _rio_rtiFilterFields = new int[_rio_rtiFilter.getFieldTypeInfos().size()];
 51    for (_rio_i = 0; _rio_i < _rio_rtiFilterFields.length; _rio_i++) {
 52      _rio_rtiFilterFields[_rio_i] = 0;
 53    }
 54    java.util.Iterator<org.apache.hadoop.record.meta.FieldTypeInfo> _rio_itFilter = _rio_rtiFilter
 55        .getFieldTypeInfos().iterator();
 56    _rio_i = 0;
 57    while (_rio_itFilter.hasNext()) {
 58      org.apache.hadoop.record.meta.FieldTypeInfo _rio_tInfoFilter = _rio_itFilter
 59          .next();
 60      java.util.Iterator<org.apache.hadoop.record.meta.FieldTypeInfo> _rio_it = _rio_recTypeInfo
 61          .getFieldTypeInfos().iterator();
 62      _rio_j = 1;
 63      while (_rio_it.hasNext()) {
 64        org.apache.hadoop.record.meta.FieldTypeInfo _rio_tInfo = _rio_it.next();
 65        if (_rio_tInfo.equals(_rio_tInfoFilter)) {
 66          _rio_rtiFilterFields[_rio_i] = _rio_j;
 67          break;
 68        }
 69        _rio_j++;
 70      }
 71      _rio_i++;
 72    }
 73  }
 74
 75  public String getS() {
 76    return s;
 77  }
 78
 79  public void setS(final String s) {
 80    this.s = s;
 81  }
 82
 83  public long getNum() {
 84    return num;
 85  }
 86
 87  public void setNum(final long num) {
 88    this.num = num;
 89  }
 90
 91  @Override
 92  public void serialize(final org.apache.hadoop.record.RecordOutput _rio_a,
 93      final String _rio_tag) throws java.io.IOException {
 94    _rio_a.startRecord(this, _rio_tag);
 95    _rio_a.writeString(s, "s");
 96    _rio_a.writeLong(num, "num");
 97    _rio_a.endRecord(this, _rio_tag);
 98  }
 99
100  private void deserializeWithoutFilter(
101      final org.apache.hadoop.record.RecordInput _rio_a, final String _rio_tag)
102      throws java.io.IOException {
103    _rio_a.startRecord(_rio_tag);
104    s = _rio_a.readString("s");
105    num = _rio_a.readLong("num");
106    _rio_a.endRecord(_rio_tag);
107  }
108
109  @Override
110  public void deserialize(final org.apache.hadoop.record.RecordInput _rio_a,
111      final String _rio_tag) throws java.io.IOException {
112    if (null == _rio_rtiFilter) {
113      deserializeWithoutFilter(_rio_a, _rio_tag);
114      return;
115    }
116    // if we're here, we need to read based on version info
117    _rio_a.startRecord(_rio_tag);
118    setupRtiFields();
119    for (int _rio_i = 0; _rio_i < _rio_rtiFilter.getFieldTypeInfos().size(); _rio_i++) {
120      if (1 == _rio_rtiFilterFields[_rio_i]) {
121        s = _rio_a.readString("s");
122      } else if (2 == _rio_rtiFilterFields[_rio_i]) {
123        num = _rio_a.readLong("num");
124      } else {
125        java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo> typeInfos = (java.util.ArrayList<org.apache.hadoop.record.meta.FieldTypeInfo>) (_rio_rtiFilter
126            .getFieldTypeInfos());
127        org.apache.hadoop.record.meta.Utils.skip(_rio_a, typeInfos.get(_rio_i)
128            .getFieldID(), typeInfos.get(_rio_i).getTypeID());
129      }
130    }
131    _rio_a.endRecord(_rio_tag);
132  }
133
134  @Override
135  public int compareTo(final Object _rio_peer_) throws ClassCastException {
136    if (!(_rio_peer_ instanceof RecordTestObj)) {
137      throw new ClassCastException("Comparing different types of records.");
138    }
139    RecordTestObj _rio_peer = (RecordTestObj) _rio_peer_;
140    int _rio_ret = 0;
141    _rio_ret = s.compareTo(_rio_peer.s);
142    if (_rio_ret != 0) {
143      return _rio_ret;
144    }
145    _rio_ret = (num == _rio_peer.num) ? 0 : ((num < _rio_peer.num) ? -1 : 1);
146    if (_rio_ret != 0) {
147      return _rio_ret;
148    }
149    return _rio_ret;
150  }
151
152  @Override
153  public boolean equals(final Object _rio_peer_) {
154    if (!(_rio_peer_ instanceof RecordTestObj)) {
155      return false;
156    }
157    if (_rio_peer_ == this) {
158      return true;
159    }
160    RecordTestObj _rio_peer = (RecordTestObj) _rio_peer_;
161    boolean _rio_ret = false;
162    _rio_ret = s.equals(_rio_peer.s);
163    if (!_rio_ret) {
164      return _rio_ret;
165    }
166    _rio_ret = (num == _rio_peer.num);
167    if (!_rio_ret) {
168      return _rio_ret;
169    }
170    return _rio_ret;
171  }
172
173  @Override
174  public Object clone() throws CloneNotSupportedException {
175    RecordTestObj _rio_other = new RecordTestObj();
176    _rio_other.s = s;
177    _rio_other.num = num;
178    return _rio_other;
179  }
180
181  @Override
182  public int hashCode() {
183    int _rio_result = 17;
184    int _rio_ret;
185    _rio_ret = s.hashCode();
186    _rio_result = 37 * _rio_result + _rio_ret;
187    _rio_ret = (int) (num ^ (num >>> 32));
188    _rio_result = 37 * _rio_result + _rio_ret;
189    return _rio_result;
190  }
191
192  public static String signature() {
193    return "LRecordTestObj(sl)";
194  }
195
196  public static class Comparator extends
197      org.apache.hadoop.record.RecordComparator {
198    public Comparator() {
199      super(RecordTestObj.class);
200    }
201
202    static public int slurpRaw(byte[] b, int s, int l) {
203      try {
204        int os = s;
205        {
206          int i = org.apache.hadoop.record.Utils.readVInt(b, s);
207          int z = org.apache.hadoop.record.Utils.getVIntSize(i);
208          s += (z + i);
209          l -= (z + i);
210        }
211        {
212          long i = org.apache.hadoop.record.Utils.readVLong(b, s);
213          int z = org.apache.hadoop.record.Utils.getVIntSize(i);
214          s += z;
215          l -= z;
216        }
217        return (os - s);
218      } catch (java.io.IOException e) {
219        throw new RuntimeException(e);
220      }
221    }
222
223    static public int compareRaw(byte[] b1, int s1, int l1, byte[] b2, int s2,
224        int l2) {
225      try {
226        int os1 = s1;
227        {
228          int i1 = org.apache.hadoop.record.Utils.readVInt(b1, s1);
229          int i2 = org.apache.hadoop.record.Utils.readVInt(b2, s2);
230          int z1 = org.apache.hadoop.record.Utils.getVIntSize(i1);
231          int z2 = org.apache.hadoop.record.Utils.getVIntSize(i2);
232          s1 += z1;
233          s2 += z2;
234          l1 -= z1;
235          l2 -= z2;
236          int r1 = org.apache.hadoop.record.Utils.compareBytes(b1, s1, i1, b2,
237              s2, i2);
238          if (r1 != 0) {
239            return (r1 < 0) ? -1 : 0;
240          }
241          s1 += i1;
242          s2 += i2;
243          l1 -= i1;
244          l1 -= i2;
245        }
246        {
247          long i1 = org.apache.hadoop.record.Utils.readVLong(b1, s1);
248          long i2 = org.apache.hadoop.record.Utils.readVLong(b2, s2);
249          if (i1 != i2) {
250            return ((i1 - i2) < 0) ? -1 : 0;
251          }
252          int z1 = org.apache.hadoop.record.Utils.getVIntSize(i1);
253          int z2 = org.apache.hadoop.record.Utils.getVIntSize(i2);
254          s1 += z1;
255          s2 += z2;
256          l1 -= z1;
257          l2 -= z2;
258        }
259        return (os1 - s1);
260      } catch (java.io.IOException e) {
261        throw new RuntimeException(e);
262      }
263    }
264
265    @Override
266    public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
267      int ret = compareRaw(b1, s1, l1, b2, s2, l2);
268      return (ret == -1) ? -1 : ((ret == 0) ? 1 : 0);
269    }
270  }
271
272  static {
273    org.apache.hadoop.record.RecordComparator.define(RecordTestObj.class,
274        new Comparator());
275  }
276}