vrem să înțelegem care sunt aspectele când net.core.netdev_max_backlog
valoarea nucleului este foarte mică și nu este așa cum este recomandată
pe mașinile noastre Linux RHEL , valoarea acestui parametru este 1000
deoarece mașinile noastre sunt mașini HADOOP (cluster BIGDATA)
am văzut că cea mai bună practică este de a crește valoarea pentru 65536
asa cum este descris pe:
https://datasayans.wordpress.com/2015/11/04/performance-kernel-tuning-for-hadoop-environment/
fundal:
Parametrul nucleului ânetdev_max_backlogâ este dimensiunea maximă a cozii de primire.Cadrele primite vor fi stocate în această coadă după ce le vor prelua din memoria tampon de inel de pe NIC. Utilizați valoare mare pentru carduri de mare viteză pentru a preveni pierderea pachetelor. În aplicațiile în timp real, cum ar fi routerul SIP, coada lungă trebuie alocată cu CPU de mare viteză, altfel datele din coadă vor fi depășite (vechi).
deci - care ar putea fi aspectele când acest parametru al nucleului are o valoare insuficientă?
altele - referință - https://gist.github.com/leosouzadias/e37cd189794bb78de502ac25cb605576
https://community.cloudera.com/t5/Community-Articles/OS-Configurations-for-Better-Hadoop-Performance/ta-p/247300
https://www.senia.org/2016/02/28/hadoop-and-redhat-system-tuning-etcsysctl-conf/
https://mapredit.blogspot.com/2014/11/hadoop-server-performance-tuning.html
https://gist.github.com/phaneesh/38b3d80b38cc76abb1d010f598fbc90a
https://docs.datastax.com/en/dse/5.1/dse-dev/datastax_enterprise/config/configRecommendedSettings.html
PDF- https://www.cisco.com/c/dam/en/us/solutions/collateral/data-center-virtualization/big-data/cloudera-intel-cisco-hadoop-benchmark.pdf