返回顶部
首页 > 资讯 > 操作系统 >linux 下hadoop 2.9.2源码编译的坑怎么解决
  • 904
分享到

linux 下hadoop 2.9.2源码编译的坑怎么解决

2023-06-02 16:06:12 904人浏览 独家记忆
摘要

这篇文章主要讲解了“linux 下hadoop 2.9.2源码编译的坑怎么解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“linux 下hadoop 2.9.2源码编译的坑怎么解决”吧!编

这篇文章主要讲解了“linuxhadoop 2.9.2源码编译的坑怎么解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“linux 下hadoop 2.9.2源码编译的坑怎么解决”吧!

编译过程begin

Centos 7 (系统Mac上vmware fusion )

Hadoop下载源码包:(再吐槽一下百度 当你用Hadoop 搜索的时候都是广告,用hadoop稍微好一些,只有出来的第一个是广告了)

linux 下hadoop 2.9.2源码编译的坑怎么解决

2 source 源码包,是目前的稳定版本

解压

做一个简单的规划,创建目录

[root@nancycici bin]# mkdir /opt/sourcecode[root@nancycici bin]# mkdir /opt/software[root@nancycici bin]# cd /opt/sourcecode

shell工具rz上传压缩包

[root@nancycici ~]# rz

(当然得先安装了这个工具才能用   :安装命令:yum -y install lrzsz)

[root@nancycici sourcecode]# lshadoop-2.9.2-src  hadoop-2.9.2-src.tar  hadoop-3.1.2-src  hadoop-3.1.2-src.tar

查看 BUILDING.txt 中编译所需要的条件,根据这些Requirements 逐个进行安装

[root@nancycici hadoop-2.9.2-src]#  vi /opt/sourcecode/hadoop-2.9.2-src/BUILDING.txtRequirements:* Unix System* jdk 1.7 or 1.8* Maven 3.0 or later* Findbugs 1.3.9 (if running findbugs)* ProtocolBuffer 2.5.0* CMake 2.6 or newer (if compiling native code), must be 3.0 or newer on Mac* Zlib devel (if compiling native code)* openssl devel (if compiling native hadoop-pipes and to get the best hdfs encryption perfORMance)* Linux FUSE (Filesystem in Userspace) version 2.6 or above (if compiling fuse_dfs)* Internet connection for first build (to fetch all Maven and Hadoop dependencies)* python (for releasedocs)* node.js / bower / Ember-cli (for YARN UI v2 building)

* JDK 1.7 or 1.8

官网下载的1.8解压配置环境变量

[root@nancycici ~]# mkdir /usr/java[root@nancycici ~]# mv jdk-8u201-linux-x64.rpm /usr/java/[root@nancycici ~]# cd /usr/java/[root@nancycici java]# lltotal 261376-r--------. 1 root root 176209195 Mar 27 18:10 jdk-8u201-linux-x64.rpm[root@nancycici java]# rpm -ivh jdk-8u201-linux-x64.rpm[root@nancycici java]# mv jdk1.8.0_201-amd64 jdk1.8.0[root@nancycici java]# vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0export PATH=$JAVA_HOME/bin:$PATH

环境变量生效查看

[root@nancycici java]# source /etc/profile[root@nancycici java]# which java/usr/java/jdk1.8.0/bin/java[root@nancycici java]# java -versionjava version "1.8.0_201"Java(TM) SE Runtime Environment (build 1.8.0_201-b09)Java HotSpot(TM) 64-Bit Server VM (build 25.201-b09, mixed mode)

接下来maven

* Maven 3.0 or later
[root@nancycici software]# tar -xvf apache-maven-3.6.0-bin.tar[root@nancycici protobuf]# vi /etc/profileexport MAVEN_HOME=/opt/software/apache-maven-3.6.0export PATH=$MAVEN_HOME/bin:$JAVA_HOME/bin:$PATH[root@nancycici protobuf]# source /etc/profile[root@nancycici ~]# mvn -versionApache Maven 3.6.0 (97c98ec64a1fdfee7767ce5ffb20918da4f719f3; 2018-10-25T02:41:47+08:00)Maven home: /opt/software/apache-maven-3.6.0Java version: 1.8.0_201, vendor: oracle Corporation, runtime: /usr/java/jdk1.8.0/jreDefault locale: en_US, platform encoding: UTF-8OS name: "linux", version: "3.10.0-514.el7.x86_64", arch: "amd64", family: "unix"

接下来findbugs(最开始在官网下载了findbugs 3.0.1 编译出现问题后换了1.3.9,还是按building来吧)

* Findbugs 1.3.9 (if running findbugs)
[root@nancycici software]# tar -xvf findbugs-1.3.9.tar export FINDBUGS_HOME=/opt/software/findbugs-1.3.9export PATH=$FINDBUGS_HOME/bin:$MAVEN_HOME/bin:$JAVA_HOME/bin:$PATH
[root@nancycici protobuf]# source /etc/profile
接下来 protocol 这个需要安装* ProtocolBuffer 2.5.0cmake yum直接安装* CMake 2.6 or newer (if compiling native code), must be 3.0 or newer on Mac
[root@nancycici software]# tar -xvf protobuf-2.5.0.tar[root@nancycici protobuf-2.5.0]# yum install -y GCc gcc-c++ make cmake[root@nancycici protobuf-2.5.0]# ./configure --prefix=/usr/local/protobuf[root@nancycici protobuf-2.5.0]# make && make install
[root@nancycici protobuf]# vi /etc/profileexport PROTOC_HOME=/usr/local/protobufexport PATH=$FINDBUGS_HOME/bin:$PROTOC_HOME/bin:$MAVEN_HOME/bin:$JAVA_HOME/bin:$PATH[root@nancycici protobuf]# source /etc/profile[root@nancycici protobuf]# which protoc/usr/local/protobuf/bin/protoc
[root@nancycici software]# cmake -versioncmake version 2.8.12.2

剩下的直接yum安装

[root@nancycici software]# yum install -y openssl openssl-devel svn  ncurses-devel zlib-devel libtool[root@nancycici software]# yum install -y snappy-devel bzip2 bzip2-devel lzo lzo-devel lzop autoconf automake

现在可以编译了(网络很重要)

[root@nancycici software]# cd /opt/sourcecode[root@nancycici sourcecode]# lshadoop-2.9.2-src  hadoop-2.9.2-src.tar  hadoop-3.1.2-src  hadoop-3.1.2-src.tar[root@nancycici sourcecode]# cd hadoop-2.9.2-src/[root@nancycici hadoop-3.1.2-src]# mvn clean package -Pdist,native -DskipTests -Dtar

坑来了~~~~

编译时间可以从一小时到 几天。。因为一直各种fail,比如这些

[INFO] Apache Hadoop Auth ................................. FAILURE

[INFO] Apache Hadoop Common ............................... FAILURE

[INFO] Apache Hadoop Common Project ....................... FAILURE

[INFO] Apache Hadoop HDFS Client .......................... FAILURE

没有记录具体的报错,但是大部分是由于网路问题连不上amazon的库,一些重新编译之后能过,一些反复在一个位置卡住的时候可能有问题,Apache Hadoop Auth Apache Hadoop Common  这个位置反复fail查看报错猜测好像是有一些包没有装好,期间yum重装了 gcc gcc-c++ 发现之后确实没安装成功,这些包可以尝试一下,安装后一定要看到成功。

期间还出现maven的相关报错,

[ERROR] Failed to execute Goal org.apache.hadoop:hadoop-maven-plugins:3.1.2:

大概是这样,环境变量中加上

export MAVEN_OPTS="-Xms256m -Xmx512m"

最后这几个都过了。

[INFO] Apache Hadoop Amazon WEB Services support .......... FAILURE

这个卡了很久 ,确认不是网络问题了

Failed to collect dependencies at com.amazonaws:DynamoDBLocal:jar:[1.11.86,2.

其中这个报错出现很多次

参考亚马逊的网站

https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DynamoDBLocal.Maven.html

以及参考博客

Https://blog.csdn.net/galiniur0u/article/details/80669408

To use DynamoDB in your application as a dependency:

  1. Download and install Apache Maven. For more information, see Downloading Apache Maven and Installing Apache Maven.

  2. Add the DynamoDB Maven repository to your application's Project Object Model (POM) file:

    <!--Dependency:--><dependencies>    <dependency>       <groupId>com.amazonaws</groupId>       <artifactId>DynamoDBLocal</artifactId>       <version>[1.11,2.0)</version>    </dependency></dependencies><!--Custom repository:--><repositories>    <repository>       <id>dynamodb-local-oregon</id>       <name>DynamoDB Local Release Repository</name>       <url>https://s3-us-west-2.amazonaws.com/dynamodb-local/release</url>    </repository></repositories>

将dependencies 和repositories加入pom.xml

[root@nancycici hadoop-project]# pwd/opt/sourcecode/hadoop-2.9.2-src/hadoop-project[root@nancycici hadoop-project]# lspom.xml  pom.xml.bk  src  target[root@nancycici hadoop-project]# vi pom.xml

然鹅这个时候还是不行。

这里重新用yum下载了一个Java版本(java-1.8.0-openjdk-1.8.0.102-4.b14.el7.x86_64)重装了Java

[root@nancycici JVM]# pwd/usr/lib/jvm[root@nancycici jvm]# lsjava-1.7.0-openjdk-1.7.0.211-2.6.17.1.el7_6.x86_64  jre-1.7.0-openjdk                                  jre-1.8.0-openjdk-1.8.0.102-4.b14.el7.x86_64java-1.8.0-openjdk-1.8.0.102-4.b14.el7.x86_64       jre-1.7.0-openjdk-1.7.0.211-2.6.17.1.el7_6.x86_64  jre-openjdkjre                                                 jre-1.8.0jre-1.7.0

最后设置的环境变量

#export JAVA_HOME=/usr/java/jdk1.8.0export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.102-4.b14.el7.x86_64export MAVEN_HOME=/opt/software/apache-maven-3.6.0export PROTOC_HOME=/usr/local/protobufexport MAVEN_OPTS="-Xms256m -Xmx512m"export FINDBUGS_HOME=/opt/software/findbugs-1.3.9export PATH=$FINDBUGS_HOME/bin:$PROTOC_HOME/bin:$MAVEN_HOME/bin:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

              

然后关闭了防火墙

systemctl stop firewalld.service #停止firewall

systemctl disable firewalld.service #禁止firewall开机启动

各种磨难五天,编译成功了

[INFO] Reactor Summary for Apache Hadoop Main 2.9.2:[INFO] [INFO] Apache Hadoop Main ................................. SUCCESS [  6.019 s][INFO] Apache Hadoop Build Tools .......................... SUCCESS [  4.249 s][INFO] Apache Hadoop Project POM .......................... SUCCESS [  4.580 s][INFO] Apache Hadoop Annotations .......................... SUCCESS [  7.920 s][INFO] Apache Hadoop Assemblies ........................... SUCCESS [  0.603 s][INFO] Apache Hadoop Project Dist POM ..................... SUCCESS [  6.075 s][INFO] Apache Hadoop Maven Plugins ........................ SUCCESS [ 11.859 s][INFO] Apache Hadoop MiniKDC .............................. SUCCESS [ 10.455 s][INFO] Apache Hadoop Auth ................................. SUCCESS [ 13.511 s][INFO] Apache Hadoop Auth Examples ........................ SUCCESS [  7.333 s][INFO] Apache Hadoop Common ............................... SUCCESS [02:09 min][INFO] Apache Hadoop NFS .................................. SUCCESS [ 13.265 s][INFO] Apache Hadoop KMS .................................. SUCCESS [ 19.103 s][INFO] Apache Hadoop Common Project ....................... SUCCESS [  0.250 s][INFO] Apache Hadoop HDFS Client .......................... SUCCESS [ 34.898 s][INFO] Apache Hadoop HDFS ................................. SUCCESS [01:30 min][INFO] Apache Hadoop HDFS Native Client ................... SUCCESS [  5.592 s][INFO] Apache Hadoop HttpFS ............................... SUCCESS [ 28.792 s][INFO] Apache Hadoop HDFS BookKeeper Journal .............. SUCCESS [ 13.432 s][INFO] Apache Hadoop HDFS-NFS ............................. SUCCESS [  7.642 s][INFO] Apache Hadoop HDFS-RBF ............................. SUCCESS [ 41.155 s][INFO] Apache Hadoop HDFS Project ......................... SUCCESS [  0.096 s][INFO] Apache Hadoop YARN ................................. SUCCESS [  0.109 s][INFO] Apache Hadoop YARN api ............................. SUCCESS [ 19.196 s][INFO] Apache Hadoop YARN Common .......................... SUCCESS [ 50.308 s][INFO] Apache Hadoop YARN ReGIStry ........................ SUCCESS [  9.489 s][INFO] Apache Hadoop YARN Server .......................... SUCCESS [  0.101 s][INFO] Apache Hadoop YARN Server Common ................... SUCCESS [ 17.042 s][INFO] Apache Hadoop YARN nodeManager ..................... SUCCESS [ 18.634 s][INFO] Apache Hadoop YARN Web Proxy ....................... SUCCESS [  4.028 s][INFO] Apache Hadoop YARN ApplicationHistoryService ....... SUCCESS [  9.632 s][INFO] Apache Hadoop YARN Timeline Service ................ SUCCESS [  6.423 s][INFO] Apache Hadoop YARN ResourceManager ................. SUCCESS [ 33.567 s][INFO] Apache Hadoop YARN Server Tests .................... SUCCESS [  2.233 s][INFO] Apache Hadoop YARN Client .......................... SUCCESS [  8.271 s][INFO] Apache Hadoop YARN SharedCacheManager .............. SUCCESS [  5.145 s][INFO] Apache Hadoop YARN Timeline Plugin Storage ......... SUCCESS [  4.856 s][INFO] Apache Hadoop YARN Router .......................... SUCCESS [  6.291 s][INFO] Apache Hadoop YARN TimelineService HBase Backend ... SUCCESS [ 10.117 s][INFO] Apache Hadoop YARN Timeline Service HBase tests .... SUCCESS [  4.253 s][INFO] Apache Hadoop YARN Applications .................... SUCCESS [  0.062 s][INFO] Apache Hadoop YARN DistributedShell ................ SUCCESS [  4.325 s][INFO] Apache Hadoop YARN Unmanaged Am Launcher ........... SUCCESS [  2.326 s][INFO] Apache Hadoop YARN Site ............................ SUCCESS [  0.106 s][INFO] Apache Hadoop YARN UI .............................. SUCCESS [  0.049 s][INFO] Apache Hadoop YARN Project ......................... SUCCESS [  7.882 s][INFO] Apache Hadoop mapReduce Client ..................... SUCCESS [  0.271 s][INFO] Apache Hadoop MapReduce Core ....................... SUCCESS [ 34.480 s][INFO] Apache Hadoop MapReduce Common ..................... SUCCESS [ 24.368 s][INFO] Apache Hadoop MapReduce Shuffle .................... SUCCESS [  6.248 s][INFO] Apache Hadoop MapReduce App ........................ SUCCESS [ 11.452 s][INFO] Apache Hadoop MapReduce HistoryServer .............. SUCCESS [  7.556 s][INFO] Apache Hadoop MapReduce JobClient .................. SUCCESS [  5.185 s][INFO] Apache Hadoop MapReduce HistoryServer Plugins ...... SUCCESS [  2.128 s][INFO] Apache Hadoop MapReduce Examples ................... SUCCESS [  7.005 s][INFO] Apache Hadoop MapReduce ............................ SUCCESS [  3.082 s][INFO] Apache Hadoop MapReduce Streaming .................. SUCCESS [  5.188 s][INFO] Apache Hadoop Distributed Copy ..................... SUCCESS [  9.639 s][INFO] Apache Hadoop ArcHives ............................. SUCCESS [  2.798 s][INFO] Apache Hadoop Archive Logs ......................... SUCCESS [  2.937 s][INFO] Apache Hadoop Rumen ................................ SUCCESS [  9.550 s][INFO] Apache Hadoop Gridmix .............................. SUCCESS [  6.652 s][INFO] Apache Hadoop Data Join ............................ SUCCESS [  3.858 s][INFO] Apache Hadoop Ant Tasks ............................ SUCCESS [  3.717 s][INFO] Apache Hadoop Extras ............................... SUCCESS [  4.609 s][INFO] Apache Hadoop Pipes ................................ SUCCESS [  1.026 s][INFO] Apache Hadoop OpenStack support .................... SUCCESS [  6.787 s][INFO] Apache Hadoop Amazon Web Services support .......... SUCCESS [ 19.538 s][INFO] Apache Hadoop Azure support ........................ SUCCESS [  9.503 s][INFO] Apache Hadoop Aliyun OSS support ................... SUCCESS [  5.122 s][INFO] Apache Hadoop Client ............................... SUCCESS [ 10.356 s][INFO] Apache Hadoop Mini-Cluster ......................... SUCCESS [  2.316 s][INFO] Apache Hadoop Scheduler Load Simulator ............. SUCCESS [  9.908 s][INFO] Apache Hadoop Resource Estimator Service ........... SUCCESS [  7.750 s][INFO] Apache Hadoop Azure Data Lake support .............. SUCCESS [ 14.210 s][INFO] Apache Hadoop Tools Dist ........................... SUCCESS [ 21.479 s][INFO] Apache Hadoop Tools ................................ SUCCESS [  0.103 s][INFO] Apache Hadoop Distribution ......................... SUCCESS [01:10 min][INFO] Apache Hadoop Cloud Storage ........................ SUCCESS [  1.427 s][INFO] Apache Hadoop Cloud Storage Project ................ SUCCESS [  0.078 s][INFO] ------------------------------------------------------------------------[INFO] BUILD SUCCESS[INFO] ------------------------------------------------------------------------[INFO] Total time:  17:00 min[INFO] Finished at: 2019-04-19T09:15:30+08:00[INFO] ------------------------------------------------------------------------[root@nancycici hadoop-2.9.2-src]#

编译好的包路径:

main:     [exec] $ tar cf hadoop-2.9.2.tar hadoop-2.9.2     [exec] $ gzip -f hadoop-2.9.2.tar     [exec]      [exec] Hadoop dist tar available at: /opt/sourcecode/hadoop-2.9.2-src/hadoop-dist/target/hadoop-2.9.2.tar.gz     [exec]

问题的处理不一定适合每个人,但相关的报错可以试一试

感谢各位的阅读,以上就是“linux 下hadoop 2.9.2源码编译的坑怎么解决”的内容了,经过本文的学习后,相信大家对linux 下hadoop 2.9.2源码编译的坑怎么解决这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

--结束END--

本文标题: linux 下hadoop 2.9.2源码编译的坑怎么解决

本文链接: https://lsjlt.com/news/230473.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • linux 下hadoop 2.9.2源码编译的坑怎么解决
    这篇文章主要讲解了“linux 下hadoop 2.9.2源码编译的坑怎么解决”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“linux 下hadoop 2.9.2源码编译的坑怎么解决”吧!编...
    99+
    2023-06-02
  • Linux下源码编译Python 3.6的方法是什么
    这篇文章主要讲解了“Linux下源码编译Python 3.6的方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux下源码编译Python 3.6的方法是什么”吧!1.操作系统以...
    99+
    2023-06-28
  • Linux环境下, 源码编译安装详解 (编译CMake 3.15 和 gcc 5.3.0 为例)
    一. 源码编译安装详解 (待补充)二. 安装CMake 3.151. 查看操作系统版本[root@mysql80 local]# cat /etc/redhat-releaseCentOS ...
    99+
    2023-06-05
  • linux要编译源码的原因是什么
    本篇内容介绍了“linux要编译源码的原因是什么”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成! ...
    99+
    2023-03-19
    linux
  • Windows下源码编译PaddlePaddle的方法是什么
    今天小编给大家分享一下Windows下源码编译PaddlePaddle的方法是什么的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下...
    99+
    2023-07-05
  • 怎么在CentOS 7.4环境下源码编译安装postgreSQL 11.4
    本篇内容介绍了“怎么在CentOS 7.4环境下源码编译安装postgreSQL 11.4”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希...
    99+
    2024-04-02
  • Linux下编译时出现的错误及解决方案
    这篇文章主要讲解了“Linux下编译时出现的错误及解决方案”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux下编译时出现的错误及解决方案”吧!(1)由于是Linux新手,所以现在才开始...
    99+
    2023-06-16
  • Linux下源码编译安装配置SVN服务器的步骤有哪些
    本篇文章给大家分享的是有关Linux下源码编译安装配置SVN服务器的步骤有哪些,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。SVN(subversion)的运行方式有两种:一种...
    99+
    2023-06-05
  • linux中编译setsockopt时报错100怎么解决
    在Linux中,错误代码100对应的是"Network is down",即网络不可用。当在调用setsocko...
    99+
    2024-02-29
    linux setsockopt
  • 怎么通过源码编译的方式安装apache2.4
    这篇文章给大家分享的是有关怎么通过源码编译的方式安装apache2.4的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。Apache HTTP Server(简称Apache)是Apache软件基金会的一个开放源码的...
    99+
    2023-06-28
  • AOSP源码下载及问题怎么解决
    这篇文章主要介绍“AOSP源码下载及问题怎么解决”,在日常操作中,相信很多人在AOSP源码下载及问题怎么解决问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”AOSP源码下载及问题怎么解决”的疑惑有所帮助!接下来...
    99+
    2023-06-29
  • springboot配置文件自动转译的坑怎么解决
    本文小编为大家详细介绍“springboot配置文件自动转译的坑怎么解决”,内容详细,步骤清晰,细节处理妥当,希望这篇“springboot配置文件自动转译的坑怎么解决”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧...
    99+
    2023-06-29
  • Linux下怎么查看nginx,apache,mysql,php的编译参数
    这篇文章主要介绍“Linux下怎么查看nginx,apache,mysql,php的编译参数”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Linux下怎么查看ngi...
    99+
    2024-04-02
  • java无法解析的编译问题怎么解决
    当Java编译器无法解析编译问题时,可以尝试以下几种方法来解决:1. 检查语法错误:首先检查代码中是否存在语法错误,如拼写错误、缺少...
    99+
    2023-08-28
    java
  • eclipse无法解析的编译问题怎么解决
    要解决Eclipse无法解析的编译问题,您可以尝试以下几个步骤:1. 清理项目:在Eclipse中,选择“Project”菜单,然后...
    99+
    2023-09-14
    eclipse
  • java编译出现 错误:编码 UTF-8~的不可映射字符怎么解决
            当我们在写java代码时,代码中包含中文时,编译的时候可能会出现 "错误:编码 UTF-8~的不可映射字符"         将文本编辑器的编码改为UTF-8就行了。          因为有些计算机默认编码是ANSI,计...
    99+
    2023-09-06
    java 开发语言
  • linux环境下java中文乱码怎么解决
    部署在linux下的java应用程序中的中文会变成一个一个的“口”字,也就是乱码问题分析:代码中使用了如下的实现方式:new java.awt.Font("宋体", Font.PLAIN, 12)那么jdk中一定需要“宋体”这个字体($JA...
    99+
    2015-09-26
    linux java
  • Linux系统下怎么编译安装支持NTFS的内核模块
    这篇文章主要讲解了“Linux系统下怎么编译安装支持NTFS的内核模块”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux系统下怎么编译安装支持NTFS的内核模块”吧!当你安装完Linu...
    99+
    2023-06-10
  • 怎么解决linux shell脚本编码格式问题
    这篇文章主要讲解了“怎么解决linux shell脚本编码格式问题”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么解决linux shell脚本编码格式问...
    99+
    2024-04-02
  • linux下将编译安装的服务怎么设置为开机启动
    这篇文章主要介绍“linux下将编译安装的服务怎么设置为开机启动”,在日常操作中,相信很多人在linux下将编译安装的服务怎么设置为开机启动问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”linux下将编译安装...
    99+
    2023-06-13
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作