草庐IT

kotlinx.serialization

全部标签

serialization - 使用 MRUnit 的 java.lang.NullPointerException。自定义 key 序列化错误

我正在尝试使用MRUnit测试一个简单的MapReduce项目。我为mapDriver设置了输入,然后调用mapDriver.runTest()(我也尝试过使用mapDriver.run()但产生了同样的错误)。我编写了一个自定义键,它重载了write(DataOutputout)、readFields(DataInputin)和compareTo(...)方法。调试时,Key使用write(DataOutputout)正确写入其数据。但是,在键的readFields(DataInputin)方法(正确检索之前使用write(DataOutputout)写入的数据)完成后,会抛出以下错

serialization - 在 Hadoop MapReduce 中为 Java 类型设置可写包装器类的原因是什么?

在我看来,可以编写一个org.apache.hadoop.io.serializer.Serialization来直接以包装类将类型序列化为相同的格式来序列化java类型。这样Mappers和Reducers就不必处理包装类。 最佳答案 没有什么可以阻止您更改序列化以使用不同的机制,例如javaSerializable接口(interface)或thrift、ProtocolBuffer等。事实上,Hadoop为JavaSerializable提供了一个(实验性的)序列化实现。对象-只需配置序列化工厂即可使用它。默认序列化机制是Wr

serialization - 在 Scalding 中读写案例类

有人可以给我指向一个链接,该链接解释了如何在scalding中读取和编写简单的案例类吗?是否有一些默认的序列化方案?例如,我有创建com.twitter.algebird.Moments管道的作业。我希望将管道写入HDFS并使用不同的作业读取它们。例如:我试着写使用:pipe.write(Tsv(outputPath))并阅读使用:classMomentsReadingExample(args:Args)extendsJob(args){valpipe=Tsv(args("input"),('term,'appearanceMoments,'totalMoments)).readval

c# - Avro .Net Serializer 忽略属性

我正在为Avro使用.Net库我有下一节C#课namespaceTest.Avro.Model{[DataContract(Name="SensorDataValue",Namespace="Sensors")]publicclassTestNm{[DataMember(Name="name")]publicstringname{get;set;}[DataMember(Name="surname",IsRequired=true)]//testtoseeifIsRequiredworkspublicstringsurname{get;set;}[DataMember(Name="co

serialization - 如何将复杂对象存入hadoop Hbase?

我有复杂的对象,其中包含需要存储到Hadoop的集合字段。我不想遍历整个对象树并显式存储每个字段。所以我就想着把复杂的字段序列化,作为一个大块存储起来。而不是在读取对象时将其反序列化。那么最好的方法是什么?我考虑过为此使用某种序列化,但我希望Hadoop有办法处理这种情况。要存储的示例对象的类:classComplexClass{Listcollection;} 最佳答案 HBase只处理字节数组,所以你可以用你认为合适的任何方式序列化你的对象。序列化对象的标准Hadoop方法是实现org.apache.hadoop.io.Writ

serialization - Hadoop中自定义Writable的实现?

我在Hadoop中定义了一个自定义的Writable类,但是Hadoop在运行我的程序时给出了以下错误消息。java.lang.RuntimeException:java.lang.NullPointerExceptionatorg.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:115)atorg.apache.hadoop.io.SortedMapWritable.readFields(SortedMapWritable.java:180)atEquivalenceClsAggValue.rea

java - Hadoop Writable和java.io.serialization有什么联系和区别?

为了实现Writable接口(interface),对象可以在Hadoop中序列化。那么HadoopWritable和java.io.serialization有什么联系和区别呢? 最佳答案 底层存储差异:Java可序列化Serializable不假定存储值的类是已知的,并使用其类标记实例,即。它写入有关对象的元数据,其中包括类名、字段名和类型及其父类(superclass)。ObjectOutputStream和ObjectInputStream对此进行了一些优化,以便在第一个之后为类的实例写入5个字节的句柄。但是带有句柄的对象序

hadoop - hive中表的 'serialization.format'属性是什么意思

当我执行describeformattedtable_name时,我得到了表table_name的详细描述。我对表格的两个属性感兴趣,如下所示:field.delimserialization.formatfield.delim是表中两列字段之间文件中的字段分隔符。但是表属性的serialization.format字段是什么意思呢? 最佳答案 hive表的两个属性:field.delim是文件中表格两列字段之间的字段分隔符。其中serialization.format是当文件被序列化时表的两个列字段之间的文件中的字段分隔符。

php - 不明白 serialize()

我正在查看此函数:用于PHP的serialize(),但我并不十分了解它的功能。有人可以提供一个简单的输出示例吗? 最佳答案 基本上,serialize的目标是将任何(几乎)类型的数据转换为字符串,以便可以传输、存储、...一个简单的例子:$my_array=array('a'=>10,'glop'=>array('test','blah'),);$serialized=serialize($my_array);echo$serialized;将为您提供以下输出:a:2:{s:1:"a";i:10;s:4:"glop";a:2:{i

php - 自定义 serialize_handler 用于自定义 php SessionHandler(数据库存储)

在php中使用第3方(django)session管理的过程中,我需要具有自定义序列化函数,以便正确地对其进行编码/解码以适应django的session数据加盐存储。目前看来,ini设置session.serialize_handler可以是php或wddx。有没有办法将自定义serialize_handler设置为一个类?我想要这样的东西:classCustomSessionSerializer{publicstaticfunctionserialize($data){//Serializesrawdata}publicstaticfunctionunserialize($sdat