Nouveau test de charge cette fois avec un MacBook Pro (15 pouces, mi-2012) : Mojave 10.14.6 / 2,3 GHz Intel Core i7 / 16 Go 1600 MHz DDR3 / NVIDIA GeForce GT 650M 512 Mo / Intel HD Graphics 4000 1536 Mo . C’est pour faire suite à ce premier test : https://www.cyber-neurones.org/2019/12/macos-macbook-pro-15-inch-2017-benchmark-avec-blender/ : Catalina 10.15.1 (19B88) / MacBook Pro (15-inch, 2017) / 2,9 GHz Intel Core i7 quatre cœurs / 16 Go 2133 MHz LPDDR3. Entre les deux portables il y a 5 ans d’anciennetés .
Pour télécharger Blender : https://www.blender.org/download/ .
Résultat sur un : Catalina 10.15.1 (19B88) / MacBook Pro (15-inch, 2017) / 2,9 GHz Intel Core i7 quatre cœurs / 16 Go 2133 MHz LPDDR3 . J’ai du mal à comprendre pourquoi c’est marqué Darwin …
Test d’écriture/lecture des disques via Blackmagic design : https://apps.apple.com/fr/app/blackmagic-disk-speed-test/id425264550?mt=12
Disque SSD Local : Ecriture 1570 MB/s et Lecture 2130,9 MB/s .
Disque Externe LaCie 5 To : Ecriture 110 MB/s et Lecture 109 MB/s .
Voici le benchmark du disque avec un SSD Crucial de 1 To : 398 MB/s en écriture et 344 MB/s en lecture.
L’outil de test :
Crucial_CT1050MX300SSD1 :
Capacité : 1,05 To (1 050 214 588 416 octets)
Modèle : Crucial_CT1050MX300SSD1
Révision : M0CR050
NCQ (Native Command Queuing) : Oui
Profondeur de la file d’attente : 32
Support amovible : Non
Disque amovible : Non
Nom BSD : disk0
Type de média : SSD
Prise en charge de TRIM : Oui
Type de carte de partition : GPT (Tableau de partition GUID)
État S.M.A.R.T. : Vérifié
Volumes :
EFI :
Capacité : 209,7 Mo (209 715 200 octets)
Système de fichiers : MS-DOS FAT32
Nom BSD : disk0s1
Contenu : EFI
UUID du volume : 0E239BC6-F960-3107-89CF-1C97F78BB46B
disk0s2 :
Capacité : 1,05 To (1 050 004 832 256 octets)
Nom BSD : disk0s2
Contenu : Apple_APFS
Pour moi le MacBook Pro il lui faut minimum 16 Go de Ram et 512 Go de disque en SSD, ce qui donne un prix très élevé !
Je viens de faire un audit :
$ uname -v
Darwin Kernel Version 19.0.0: Thu Oct 17 16:17:15 PDT 2019; root:xnu-6153.41.3~29/RELEASE_X86_6
$ sudo du -sh /private/var/folders/gy/578qjv7j22j4pzty537lyjjc0000gn/C/com.apple.appstore/
124G /private/var/folders/gy/578qjv7j22j4pzty537lyjjc0000gn/C/com.apple.appstore/
$ uptime
8:39 up 13 days, 17:50, 3 users, load averages: 13,08 18,79 20,84
$ ls -l /private/var/folders/
total 0
drwxr-xr-x@ 3 root wheel 96 26 sep 2018 f8
drwxr-xr-x 3 root wheel 96 19 nov 2013 gy
drwxr-xr-x@ 3 root wheel 96 16 sep 12:56 gz
drwxr-xr-x@ 3 root wheel 96 26 sep 2018 v3
drwxr-xr-x@ 38 root wheel 1216 2 jan 2019 zz
$ sudo du -sh /private/var/folders/*
21M /private/var/folders/f8
127G /private/var/folders/gy
17M /private/var/folders/gz
0B /private/var/folders/v3
286M /private/var/folders/zz
$ sudo ls -l /private/var/folders/gy/578qjv7j22j4pzty537lyjjc0000gn/
total 0
drwxr-xr-x 26 myuser staff 832 15 oct 10:53 0
drwx------ 257 myuser staff 8224 29 nov 08:19 C
drwx------ 3623 myuser staff 115936 29 nov 08:44 T
Simplement 124 G de fichier temporaire … le pc est lancé seulement depuis 13 jours. Comment faire le ménage ? Normalement il suffit de faire une reboot mais visiblement cela ne fonctionne pas ?!
Un petit exemple si je vais sur : https://www.apple.com/fr/shop/buy-mac/macbook-pro/13-pouces
J’ai essayé de détecter l’espace disque utilisé avec des du …
$ du -sh Library/* | grep "G"
15G Library/Application Support
2,2G Library/Caches
15G Library/Containers
4,8G Library/Developer
0B Library/GameKit
28K Library/Google
108M Library/Group Containers
6,5G Library/Mail
1,1G Library/iTunes
$ du -sh Library/Containers/* | grep "G"
2,0G Library/Containers/com.apple.BKAgentService
36K Library/Containers/com.apple.Grab
24K Library/Containers/com.apple.STMExtension.GarageBand
32K Library/Containers/com.apple.dt.GitHubEnterpriseHostBuiltInExtension
28K Library/Containers/com.apple.dt.GitHubHostBuiltInExtension
28K Library/Containers/com.apple.dt.GitLabHostBuiltInExtension
28K Library/Containers/com.apple.dt.GitLabSelfHostBuiltInExtension
2,8G Library/Containers/com.apple.mail
4,5G Library/Containers/com.dummyapp.FileRecorder
36K Library/Containers/com.google.GoogleDrive.FinderSyncAPIExtension
136K Library/Containers/com.icvt.JPEGminiLite
2,5M Library/Containers/com.jixipix.GrungetasticMac
608K Library/Containers/com.macpaw.Gemini
$ du -sh Library/Containers/com.apple.mail/* | grep "G"
2,8G Library/Containers/com.apple.mail/Data
$ du -sh Library/Containers/com.apple.mail/Data/* | grep "G"
2,8G Library/Containers/com.apple.mail/Data/Library
$ du -sh Library/Containers/com.apple.mail/Data/Library/* | grep "G"
2,4G Library/Containers/com.apple.mail/Data/Library/Mail Downloads
$ du -sh Library/Containers/com.apple.mail/Data/Library/Mail\ Downloads/ | grep "G"
2,4G Library/Containers/com.apple.mail/Data/Library/Mail Downloads/
J’ai donc supprimer tous les fichiers dans Library/Containers/com.apple.mail/Data/Library/Mail Downloads/ . J’ai gagné 2,4 Go.
Le site pour le téléchargement : https://imageoptim.com/command-line.html .
Petit exemple sur mon Mac :
$ du -sh Pictures/Bibliothèque\ Photos.photoslibrary/*
0B Pictures/Bibliothèque Photos.photoslibrary/Attachments
0B Pictures/Bibliothèque Photos.photoslibrary/Masks
55G Pictures/Bibliothèque Photos.photoslibrary/Masters
0B Pictures/Bibliothèque Photos.photoslibrary/Plugins
4,0K Pictures/Bibliothèque Photos.photoslibrary/ProjectDBVersion.plist
3,7M Pictures/Bibliothèque Photos.photoslibrary/Projects.db
805M Pictures/Bibliothèque Photos.photoslibrary/database
4,0K Pictures/Bibliothèque Photos.photoslibrary/iPhotoLock.data
3,5G Pictures/Bibliothèque Photos.photoslibrary/private
21G Pictures/Bibliothèque Photos.photoslibrary/resources
J’ai donc 55 Go de photos sur mon Mac dans Masters …
La configuration : pas de suppression des informations EXIF ! et qualité à 100%.
Petit script pour envoyer l’historique d’un SVN vers Elasticsearch/Kibana. Avant j’utilisais statSVN : https://statsvn.org .
Pour l’installation sous Mac :
$ pip2 install --upgrade pip
$ pip2 install elasticsearch
Voici le programme :
import xml.etree.ElementTree as ET
import os
import re
from elasticsearch import Elasticsearch
import sys
tree = ET.parse('svn.log')
root = tree.getroot()
count = 0;
nb_error = 0
es=Elasticsearch([{'host':'localhost','port':9200}])
es_keys="svn"
for logentry in root.iter('logentry'):
revision = logentry.get('revision')
author = logentry.find('author').text
date = logentry.find('date').text
msg = logentry.find('msg').text
if msg is not None:
msg = msg.replace("\n", " ")
msg = msg.replace("\r", " ")
msg = msg.rstrip('\r\n')
msg = msg.strip('\r\n')
msg = str(re.sub(r'[^\x00-\x7F]',' ', msg))
paths = logentry.find('paths')
for path in paths.findall('path'):
my_path = path.text
my_basename = os.path.basename(my_path)
my_dir = os.path.dirname(my_path)
count += 1
if msg is not None:
json = '{"revision":'+revision+',"author":"'+author+'","date":"'+date+'","msg":"'+msg+'","basename":"'+my_basename+'","folder":"'+my_dir+'"}'
else:
json = '{"revision":'+revision+',"author":"'+author+'","date":"'+date+'","basename":"'+my_basename+'","folder":"'+my_dir+'"}'
print(count,json)
try:
res = es.index(index=es_keys,doc_type='svn',id=count,body=json)
except:
nb_error += 1
Il faut faire un export XML de SVN :