oracle expdp/impdp高版本导入到低版本

oracle 导入导出  使用expdp/impdp 我的版本11gR2   版本号 11.2.0.1.0    同事的是11gr1 需要指定版本号11.1.0.6.0 我装的oracle是11gR2  同事装的是11gR1  用expdp导出  impdp导入  提示版本不兼容错误 经查看oracle文档  看到了 这个参数version  最后加oracle版本号 version=11.1.0.6.0   成功导入 Sql代码 –创建dump文件目录 create directory dump_test as ‘D:\test\dump’ –授权读写权限给你要操作的用户 grant read, write on directory dump_test to username –查询是否存在自己创建的文件目录 select * from dba_directories; select  * from da.user_tables –注意低版本是不能导入高版本 比如我的数据库是11gR2 对方是11gr1 需要指定版本号11.1.0.6.0 expdp username/password directory=dump_test dumpfile=data.dmp  version=11.1.0.6.0 –默认导在刚才创建的目录 ‘D:\test\dump’ […]

Building Go 1.5 on the Raspberry Pi

This is a short post to describe my recommended method for building Go on the Raspberry Pi. This method has been tested on the Raspberry Pi 2 Model B (900Mhz, 1Gb ram) and the older Raspberry Pi 1 Model B+ (700Mhz, 512Mb ram). This method will build Go 1.5 into you home directory, /usr/local/go. As […]

树莓派(raspberrypi)安装aircrack-ng,reaver及wifi破解教程

硬件环境 树莓派B+一个(我用的是debian环境) PC一台(或其它设备直接操作PI就行) 无线网卡(能用就行,不过强大的无线网卡会事半功倍,我用的3070) 安装依赖包 sudo apt-get install -y libpcap-dev libsqlite3-dev sqlite3 libpcap0.8-dev libssl-dev build-essential iw tshark subversion sudo apt-get install libnl-3-200 libnl-3-dev libnl-3-doc libnl-genl-3-dev libnl-genl-3-200 安装aircarck-ng svn co http://svn.aircrack-ng.org/trunk/ aircrack-ng cd aircrack-ng/ make sudo make install 安装reaver wget http://reaver-wps.googlecode.com/files/reaver-1.4.tar.gz tar zxvf reaver-1.4.tar.gz cd reaver-1.4/src ./configure make sudo make install 如果上面下载的地址被墙,试下这个地址:http://lok.me/wp-content/uploads/reaver-1.4.tar.gz 如果安装成功后,会有airmon-ng,airodump-ng,reaver等命令可用。 破解教程 sudo airmon-ng […]

protoc –version’ did not return a version

按照hadoop官方网站的文档,路径为http://hadoop.apache.org/docs/r2.2.0/hadoop-project-dist/hadoop-common/SingleCluster.html.用svn co http://svn.apache.org/repos/asf/hadoop/common/trunk下载资源,使用 mvn clean install -DskipTests 进行编译时候,抛出异常 INFO] ———————————————————————— [ERROR] Failed to execute goal org.apache.hadoop:hadoop-maven-plugins:3.0.0-SNAPSHOT:protoc (compile-protoc) on project hadoop-common: org.apache.maven.plugin.MojoExecutionException: ‘protoc –version’ did not return a version -> [Help 1] [ERROR] [ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch. [ERROR] Re-run Maven using the -X switch to enable […]

How to skip Maven unit test

By default, when building project, Maven will run the entire unit tests automatically. If any of unit test is failed, it will force Maven to abort the building process. $ mvn install $ mvn package In real life, you may “STILL” need to build your project even some of the cases are failed. Skip Unit […]

Hadoop快速入门

目的 这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。   先决条件   支持平台 GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。 Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。   所需软件 Linux和Windows所需软件包括: JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。 ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。 Windows下的附加软件需求 Cygwin – 提供上述软件之外的shell支持。   安装软件 如果你的集群尚未安装所需软件,你得首先安装它们。 以Ubuntu Linux为例: $ sudo apt-get install ssh $ sudo apt-get install rsync 在Windows平台上,如果安装cygwin时未安装全部所需软件,则需启动cyqwin安装管理器安装如下软件包: openssh – Net 类   下载 为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版。   运行Hadoop集群的准备工作 解压所下载的Hadoop发行版。编辑 conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。 尝试如下命令: $ bin/hadoop 将会显示hadoop 脚本的使用文档。 现在你可以用以下三种支持的模式中的一种启动Hadoop集群: […]

10 个给 Linux 用户的有用工具

引言 在本教程中,我已经收集了10个给 Linux 用户的有用工具,其中包括各种网络监控,系统审计和一些其它实用的命令,它可以帮助用户提高工作效率。我希望你会喜欢他们。 1. w 显示谁登录了系统并执行了哪些程序。 $ w 不显示头部信息(LCTT译注:原文此处有误) $ w -h 显示指定用户的信息 $ w <username> 2. nmon Nmon(nigel’s monitor 的简写)是一个显示系统性能信息的工具。 $ sudo apt-get install nmon $ nmon nmon 可以显示与 netwrok,cpu, memory 和磁盘使用情况的信息。 nmon 显示 cpu 信息 (按 c) nmon 显示 network 信息 (按 n) nman 显示 disk 信息 (按 d) 3. ncdu 是一个支持光标的du程序,这个命令是用来分析各种目录占用的磁盘空间。 […]

5 Steps to Take Care of Your MongoDB Performance

Do you face some performance issues in your MongoDB setup? In this case follow these steps to provide some first aid to your system and gain some space for a long term architecture (such as Sharding). Step 1: Enable Slow Queries Get intelligence about your system behavior and performance bottlenecks. Usually there is a high correlation between the […]

HadoopDataTransport Hadoop数据移动方法

前段时间旧HADOOP升级内存,需要把某些共用数据文件迁移到临时的HADOOP上,如果用hadoop 命令效率N低, 于是就写一个小程序,按照文件列表,把数据迁移到新HADOOP上,命令: java -classpath ./lib/hadoop-core-1.0.2.jar:./lib/commons-logging-1.1.1.jar:./lib/commons-configuration-1.6.jar:./lib/commons-lang-2.4.jar:./ test.HadoopDataTransport filelist.txt 100 [root@datanode4 ~]# cat filelist.txt /201401/21/3bb30e5f-cf3e-4182-a7c0-ed486f80a87a.mp3 /201401/21/1d62fff3-744e-41c9-8152-5243ee0ce7b4.mp3 /201401/21/784a53f4-2125-4bc6-bf6a-0adf40981a64.mp3 代码清单:不喜欢写注释。 package test; import java.io.BufferedReader; import java.io.FileReader; import java.io.FileWriter; import java.io.IOException; import java.io.InputStream; import java.io.PrintWriter; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; public class HadoopDataTransport implements Runnable { private static FileSystem […]