Parmi les premiers séminaires ouverts sur le langage de script pour ordinateur personnel, et pourquoi les entreprises et les pays devraient s’en préoccuper. Il s’agit en fait du court à emporter. Le langage de script d’ordinateur personnel est un vocabulaire d’ordinateur personnel destiné à résoudre assez peu de problèmes de codage qui ne nécessitent pas la surcharge de déclarations d’informations et d’autres fonctions nécessaires pour rendre les grandes applications gérables. Les dialectes de script sont utilisés pour écrire des ressources de système d’exploitation, pour des applications de manipulation de documents à usage spécial et, parce qu’ils sont simples à découvrir, parfois pour des applications beaucoup plus volumineuses. Perl, un langage particulier, a été développé à la fin des années 1980, séminaire entreprise à l’origine pour être utilisé avec le système d’exploitation UNIX. Il était destiné à avoir toutes les capacités des dialectes de script antérieurs. Perl a fourni de nombreuses manières différentes de conditionner des procédures typiques et a ainsi permis à un programmeur d’adopter n’importe quel style pratique. Dans les années 1990, il est devenu à la mode en tant qu’outil de programmation système, à la fois pour les applications à faible puissance et pour les prototypes de plus grandes. Avec d’autres langages, il est également devenu populaire pour le codage des serveurs Web d’ordinateurs personnels. Le système d’exploitation (OS) est un système qui traite les sources d’un ordinateur, en particulier l’allocation de ces ressources entre d’autres applications. Les sources courantes sont l’unité centrale de traitement (CPU), la mémoire de l’ordinateur personnel, le stockage de fichiers, les périphériques d’entrée/sortie (E/S) et les contacts réseau. Les tâches d’administration consistent à organiser l’utilisation des ressources pour éviter les conflits et les interférences entre les programmes. Contrairement à la plupart des applications, qui terminent une tâche et se terminent, un système d’exploitation s’exécute indéfiniment et ne se termine que si votre ordinateur est éteint. Les systèmes de multitraitement modernes permettent à de nombreuses méthodes d’être énergiques, où chaque procédure est un « fil » de calcul utilisé pour terminer un programme. Une forme unique de multitraitement est appelée temps partagé, qui permet à de nombreux utilisateurs de discuter de l’accessibilité des ordinateurs personnels en basculant rapidement entre les deux. Le temps partagé doit protéger contre les interférences entre les applications des utilisateurs, et la plupart des systèmes utilisent la mémoire numérique, où la mémoire, ou « espace d’adressage », utilisé par un logiciel peut résider dans une mémoire secondaire (comme sur un disque dur magnétique) lorsqu’elle n’est pas en utilisation immédiate, à échanger pour occuper la mémoire principale plus rapide de l’ordinateur personnel en cas de besoin. Cette mémoire numérique à la fois élève la salle d’adressage accessible à un programme et permet d’éviter que les programmes n’interfèrent entre eux, mais elle nécessite une gestion prudente par le système d’exploitation et un ensemble de mobilier d’allocation pour garder une trace de l’utilisation des souvenirs. La tâche la plus sensible et la plus critique pour un système d’exploitation contemporain est peut-être l’allocation du CPU ; chaque procédure est autorisée à utiliser la CPU pendant un temps limité, qui peut être une petite fraction d’une autre, et après cela doit quitter le contrôle et être suspendue jusqu’à sa prochaine transformation. La commutation entre les procédures doit elle-même utiliser le CPU tout en protégeant toutes les données des processus. Le principal avantage d’un ordinateur multiprocesseur est sa vitesse, et donc sa capacité à traiter de plus grandes quantités d’informations. Étant donné que chaque puce de processeur dans une telle méthode est conçue pour exécuter une fonctionnalité spécifique, elle peut effectuer son travail, transmettre la configuration de coaching à la puce de processeur suivante et commencer à se concentrer sur un nouvel ensemble de directions. Par exemple, divers processeurs peuvent être utilisés pour gérer le stockage en mémoire, les télécommunications d’informations ou les fonctions arithmétiques. Ou peut-être qu’un processeur plus grand pourrait utiliser des puces de processeur «esclaves» pour effectuer diverses tâches d’entretien, comme l’administration de la mémoire. Les systèmes multiprocesseurs sont d’abord apparus dans les gros ordinateurs appelés mainframes, avant que leurs dépenses ne diminuent suffisamment pour justifier leur inclusion dans les ordinateurs (PC). Il faut cependant noter que le simple ajout de processeurs ne garantit pas des gains significatifs en énergie de traitement ; les problèmes du système informatique demeurent. Alors que les programmeurs et les langages de programmation d’ordinateurs personnels ont créé certaines compétences pour attribuer des exécutions à un petit nombre de puces de processeur, l’analyse des instructions au-delà de deux à huit processeurs est impraticable pour de nombreuses tâches, mais les plus récurrentes. (Heureusement, bon nombre des applications technologiques courantes des superordinateurs consistent à appliquer exactement la même formulation ou le même calcul à un large éventail de données, ce qui est en fait un problème difficile mais traitable.)