首页
/ Apache HAWQ技术文档

Apache HAWQ技术文档

2024-12-23 11:59:30作者:谭伦延

1. 安装指南

安装HDFS

首先,您需要安装HomeBrew,具体步骤请参考官方文档

brew install hadoop

然后,配置HDFS参数:

  • 编辑${HADOOP_HOME}/etc/hadoop/slaves文件,添加localhost。

  • 编辑${HADOOP_HOME}/etc/hadoop/core-site.xml文件,配置如下:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:8020</value>
    </property>
</configuration>
  • 编辑${HADOOP_HOME}/etc/hadoop/hdfs-site.xml文件,配置如下:
<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file://${HADOOP_DATA_DIRECTORY}/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file://${HADOOP_DATA_DIRECTORY}/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>
  • 配置HDFS环境变量:
touch ~/.bashrc
touch ~/.bash_profile

echo "if [ -f ~/.bashrc ]; then
source ~/.bashrc
fi" >> ~/.bash_profile

echo "export HADOOP_HOME=/usr/local/Cellar/hadoop/2.8.1/libexec" >> ~/.bashrc
echo "export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin" >> ~/.bashrc

source ~/.bashrc
  • 设置无密码SSH:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

现在,您可以通过ssh localhost进行无密码登录。如果遇到Port 22 connecting refused错误,请在Mac的“系统偏好设置”中开启“远程登录”。

  • 格式化HDFS文件系统:
hdfs namenode -format
  • 启动HDFS:
# 启动/停止HDFS
start-dfs.sh/stop-dfs.sh

# 进行基本测试以确保HDFS正常工作
hdfs dfsadmin -report
hadoop fs -ls /

如果遇到问题,请首先检查日志文件,并在维基中查看常见问题解答。

安装HAWQ

系统配置

  • 关闭Rootless System Integrity Protection(如果遇到LIBRARY_PATH问题)。

  • 配置sysctl.conf文件。

准备源代码和目标文件夹

mkdir ~/dev
git clone git@github.com:apache/hawq ~/dev/hawq

sudo mkdir -p /opt
sudo chmod a+w /opt
sudo install -o $USER -d /usr/local/hawq

设置工具链和第三方依赖

构建HAWQ

  • 将HAWQ环境信息添加到~/.bashrc中,并使用source ~/.bashrc使其生效。

  • 构建HAWQ:

cd ~/dev/hawq
git checkout master
ln -sf ../../commit-msg .git/hooks/commit-msg
./configure
make -j8
make -j8 install

配置HAWQ

mkdir /tmp/magma_master
mkdir /tmp/magma_segment

使用默认的/usr/local/hawq/etc/hawq-site.xml。确保将hawq_dfs_url映射到${HADOOP_HOME}/etc/hadoop/core-site.xml中的fs.defaultFS

初始化/启动/停止HAWQ

# 在初始化HAWQ之前,您需要安装HDFS并确保它正常工作。

source /usr/local/hawq/greenplum_path.sh

# 在本机开发时,需要设置无密码SSH。如果只在本地安装HAWQ,则跳过此步骤。
# 交换主机host1、host2和host3之间的SSH密钥:
# hawq ssh-exkeys -h host1 -h host2 -h host3

# 初始化HAWQ集群并默认启动HAWQ
hawq init cluster -a

# 现在您可以使用以下命令停止/重新启动/启动集群:
hawq stop/restart/start cluster
# 初始化命令会自动调用启动命令。

# HAWQ主节点和段节点完全解耦。
# 因此,您可以分别初始化、启动或停止主节点和段节点。
# 例如,初始化:hawq init master,然后hawq init segment
#              停止:hawq stop master,然后hawq stop segment
#              启动:hawq start master,然后hawq start segment

在每次初始化HAWQ时,需要删除一些文件。所有需要删除的文件目录已在/usr/local/hawq/etc/hawq-site.xml中配置。

2. 项目的使用说明

请参考HAWQ官方文档获取详细的使用说明。

3. 项目API使用文档

HAWQ提供了丰富的API供开发者使用,具体API文档请参考HAWQ官方文档

4. 项目安装方式

HAWQ可以通过以下方式安装:

  • 手动安装:按照上述“安装指南”进行手动安装。

  • 使用Docker:在CentOS 7(6.X)上使用Docker安装HAWQ,步骤与在macOS上类似。

请根据实际需求选择合适的安装方式。

登录后查看全文
热门项目推荐