CACIC 2001VII Congreso Argentino de Ciencias de la Computaciónhttp://sedici.unlp.edu.ar:80/handle/10915/231892024-03-19T08:49:46Z2024-03-19T08:49:46ZUn caso de uso de un sistema operativo convencional en tareas de tiempo real blandas tolerantes a fallasNovarini, PabloRomero, FernandoRodríguez, Christian AdriánRamón, Hugo Dionisiohttp://sedici.unlp.edu.ar:80/handle/10915/234462018-12-13T04:03:22Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Se presenta la utilización de un sistema operativo convencional (SO), Linux, en plataforma Intel, para la solución de un problema en tiempo real blanda (STR). Se exponen los inconvenientes de los SO y la forma que se utilizo de atenuar sus efectos en la implementación presentada.
Se justifica la utilización de los SO y no extensiones tipo Posix, caracterizando los problemas capaces de ser resueltos mediante su utilización, con la ventaja comparativa en costos por la reutilización de plataformas ya existentes.
Se desarrollo un driver de una placa analogica-digital (A/D) que amortigua los problemas de los SO para STR y se dos aplicaciones de testeo en modo consola y XWindows, esta placa A/D posee entradas digitales y analógicas y salidas digitales, de uso conveniente para problemas tolerantes a fallas.
Eje: Sistemas operativos
2001-10-01T00:00:00ZSe presenta la utilización de un sistema operativo convencional (SO), Linux, en plataforma Intel, para la solución de un problema en tiempo real blanda (STR). Se exponen los inconvenientes de los SO y la forma que se utilizo de atenuar sus efectos en la implementación presentada.
Se justifica la utilización de los SO y no extensiones tipo Posix, caracterizando los problemas capaces de ser resueltos mediante su utilización, con la ventaja comparativa en costos por la reutilización de plataformas ya existentes.
Se desarrollo un driver de una placa analogica-digital (A/D) que amortigua los problemas de los SO para STR y se dos aplicaciones de testeo en modo consola y XWindows, esta placa A/D posee entradas digitales y analógicas y salidas digitales, de uso conveniente para problemas tolerantes a fallas.JEDI: An interactive interpreter for JAVARodrigues, Hermann OliveiraCamarão, Carloshttp://sedici.unlp.edu.ar:80/handle/10915/234452018-12-13T04:03:19Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
JAVA is a general purpose concurrent class-based object-oriented programming language. This work presents an interactive program that interprets JAVA source programs directly. The cornerstone of its execution model is an execution graph, in which each node is constituted by three functions: a state transformer, a continuation and an exception handler.
Eje: Sistemas operativos
2001-10-01T00:00:00ZJAVA is a general purpose concurrent class-based object-oriented programming language. This work presents an interactive program that interprets JAVA source programs directly. The cornerstone of its execution model is an execution graph, in which each node is constituted by three functions: a state transformer, a continuation and an exception handler.Servidor web multiplataforma con implementación CGISaravia, Loraine E. GimsonFernández, Julián J.http://sedici.unlp.edu.ar:80/handle/10915/234432018-12-12T20:03:17Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
El objetivo que perseguimos en este trabajo fue el desarrollo de un servidor Web multiplataforma basado en el protocolo HTTP 1.0 con implementación de la interfaz CGI, utilizando como lenguaje de programación JAVA. Los métodos que implementa son GET, HEAD, POST, PUT, DELETE .También dotamos al servidor con la capacidad de entender y responder a peticiones de clientes que utilicen protocolo HTTP 0.9 (GET) y HTTP 1.1 (GET, HEAD, POST, PUT, DELETE, OPTIONS, TRACE).
Desarrollamos también un administrador del servidor que permitiera, a la persona que lo administrara, decidir dónde se encontrarían los recursos que podrían ser accedidos a través del servidor y si éstos serían de libre acceso o de acceso restringido; todo esto a través de una interfaz gráfica.
Y como complemento, decidimos construir un cliente web que permitiera subir (upload) y bajar (download) archivos en un servidor y otros métodos que navegadores comerciales no implementaban.
Eje: Sistemas operativos
2001-10-01T00:00:00ZEl objetivo que perseguimos en este trabajo fue el desarrollo de un servidor Web multiplataforma basado en el protocolo HTTP 1.0 con implementación de la interfaz CGI, utilizando como lenguaje de programación JAVA. Los métodos que implementa son GET, HEAD, POST, PUT, DELETE .También dotamos al servidor con la capacidad de entender y responder a peticiones de clientes que utilicen protocolo HTTP 0.9 (GET) y HTTP 1.1 (GET, HEAD, POST, PUT, DELETE, OPTIONS, TRACE).
Desarrollamos también un administrador del servidor que permitiera, a la persona que lo administrara, decidir dónde se encontrarían los recursos que podrían ser accedidos a través del servidor y si éstos serían de libre acceso o de acceso restringido; todo esto a través de una interfaz gráfica.
Y como complemento, decidimos construir un cliente web que permitiera subir (upload) y bajar (download) archivos en un servidor y otros métodos que navegadores comerciales no implementaban.Support system for process flow schedulingSalomone, EnriqueChiotti, Omar Juan AlfredoLerch, Juanhttp://sedici.unlp.edu.ar:80/handle/10915/234402018-12-13T04:03:15Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Process flow scheduling is a concept that refers to the scheduling of flow shop process plants, whose scheduling calculations are guided by the process structure. In a wide variety of high-volume process industries, the process flow scheduling concept implies an integrated structure for planning and scheduling.
This integrated vision of the planning function and the very particular characteristics of the process industry production environment challenge the application of the most traditional approaches to support planning/scheduling activities. We are working with the aim of developing a conceptual system foundation to support process flow scheduling.
We started from a grass roots study of the current process flow planning/scheduling practices and we applied an object oriented analysis and design methodology to design a system to support process flow scheduling. Essentially, the system supports a process flow scheduling model that can be used to instantiate production resources of a particular industry, the plant structure and the products with their respective production processes. In this way, the particular scheduling problem of a production order set will be instantiated.
In this work we describe the process flow scheduling problem, a process flow scheduling support system architecture, a general ontology of the process flow scheduling, an object oriented design of the system and some implementation details.
Eje: Sistemas operativos
2001-10-01T00:00:00ZProcess flow scheduling is a concept that refers to the scheduling of flow shop process plants, whose scheduling calculations are guided by the process structure. In a wide variety of high-volume process industries, the process flow scheduling concept implies an integrated structure for planning and scheduling.
This integrated vision of the planning function and the very particular characteristics of the process industry production environment challenge the application of the most traditional approaches to support planning/scheduling activities. We are working with the aim of developing a conceptual system foundation to support process flow scheduling.
We started from a grass roots study of the current process flow planning/scheduling practices and we applied an object oriented analysis and design methodology to design a system to support process flow scheduling. Essentially, the system supports a process flow scheduling model that can be used to instantiate production resources of a particular industry, the plant structure and the products with their respective production processes. In this way, the particular scheduling problem of a production order set will be instantiated.
In this work we describe the process flow scheduling problem, a process flow scheduling support system architecture, a general ontology of the process flow scheduling, an object oriented design of the system and some implementation details.Hierarquia de gerenciamento de redes com componentes móveisBins Júnior, Edson N. SilvaAugustin, IaraYamin, AdenauerBarbosa, Jorge L. V.Tarouco, Liane Margarida Rockenbachhttp://sedici.unlp.edu.ar:80/handle/10915/234392018-12-12T20:03:13Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
O paradigma tradicional de gerenciamento centralizado não é mais suficiente para soluções efetivas de gerenciamento, principalmente pela falta de um melhor grau de escalabilidade, visto o crescimento da importância das redes de computadores e o aumento do número de dispositivos e serviços que estão acoplados a elas, levando á necessidade de redes e sistemas de gerenciamento eficientes. Uma abordagem mais promissora envolve um gerenciamento baseado em tarefas distribuídas, o que também facilita a integração entre o sistema de gerenciamento de redes e o de aplicações móveis distribuídas. Este artigo apresenta o projeto GRAMA (Gerenciamento de Redes usando Agentes Móveis), concentrando-se na sua arquitetura de gerenciamento com seus requisitos básicos e seus principais componentes. O projeto GRAMA deve interagir com o projeto ISAM (Infra-estrutura de Suporte á Aplicações Móveis) visando garantir uma eficiente infra-estrutura para o desenvolvimento de aplicações móveis. Ambos os projetos estão em desenvolvimento na Universidade Federal do Rio Grande do Sul.
No campo do gerenciamento de redes, observa-se uma falta de suporte uniforme para tornar mais eficiente a construção e execução de aplicações distribuídas móveis. Com o intuito de abordar este problema, está em desenvolvimento o projeto GRAMA (Gerenciamento de Redes usando Agentes Móveis), que visa projetar uma arquitetura de gerenciamento de rede de computadores adequada á mobilidade. GRAMA usa a tecnologia de agentes móveis para modelar o monitoramento e o controle da rede. Além disso, os agentes são responsáveis por adquirir, tratar, armazenar e disponibilizar informações referentes ao funcionamento da rede móvel com dois propósitos: (i) integrar a parte de monitoração para o gerenciamento da rede (GRAMA), (ii) integrar o módulo de monitoração da arquitetura ISAM (Infra-estrutura de Suporte ás Aplicações Móveis).
ISAM é um projeto em desenvolvimento na Universidade Federal do Rio Grande do Sul, que objetiva prover uma infra-estrutura para a programação e execução de aplicações distribuídas em ambiente com mobilidade física e lógica. A arquitetura ISAM está baseada no conceito de adaptação, e provê o suporte para que a aplicação altere seu comportamento em resposta á variação do seu contexto de execução [YAM01].
O objetivo deste artigo é apresentar a arquitetura GRAMA e sua integração com o ISAM, e está estruturado da seguinte forma. Na seção 2, apresenta-se uma caracterização das redes com componentes móveis. Na sessão 3, é tratado o gerenciamento de redes, sendo discutida também a questão da mobilidade. A seção 4 concentra-se na modelagem do sistema de gerenciamento móvel proposto. A seção 5 apresenta a arquitetura ISAM e sua integração com GRAMA. Os trabalhos relacionados e as conclusões são apresentados na seção 6 e 7, respectivamente.
Eje: Sistemas operativos
2001-10-01T00:00:00ZO paradigma tradicional de gerenciamento centralizado não é mais suficiente para soluções efetivas de gerenciamento, principalmente pela falta de um melhor grau de escalabilidade, visto o crescimento da importância das redes de computadores e o aumento do número de dispositivos e serviços que estão acoplados a elas, levando á necessidade de redes e sistemas de gerenciamento eficientes. Uma abordagem mais promissora envolve um gerenciamento baseado em tarefas distribuídas, o que também facilita a integração entre o sistema de gerenciamento de redes e o de aplicações móveis distribuídas. Este artigo apresenta o projeto GRAMA (Gerenciamento de Redes usando Agentes Móveis), concentrando-se na sua arquitetura de gerenciamento com seus requisitos básicos e seus principais componentes. O projeto GRAMA deve interagir com o projeto ISAM (Infra-estrutura de Suporte á Aplicações Móveis) visando garantir uma eficiente infra-estrutura para o desenvolvimento de aplicações móveis. Ambos os projetos estão em desenvolvimento na Universidade Federal do Rio Grande do Sul.
No campo do gerenciamento de redes, observa-se uma falta de suporte uniforme para tornar mais eficiente a construção e execução de aplicações distribuídas móveis. Com o intuito de abordar este problema, está em desenvolvimento o projeto GRAMA (Gerenciamento de Redes usando Agentes Móveis), que visa projetar uma arquitetura de gerenciamento de rede de computadores adequada á mobilidade. GRAMA usa a tecnologia de agentes móveis para modelar o monitoramento e o controle da rede. Além disso, os agentes são responsáveis por adquirir, tratar, armazenar e disponibilizar informações referentes ao funcionamento da rede móvel com dois propósitos: (i) integrar a parte de monitoração para o gerenciamento da rede (GRAMA), (ii) integrar o módulo de monitoração da arquitetura ISAM (Infra-estrutura de Suporte ás Aplicações Móveis).
ISAM é um projeto em desenvolvimento na Universidade Federal do Rio Grande do Sul, que objetiva prover uma infra-estrutura para a programação e execução de aplicações distribuídas em ambiente com mobilidade física e lógica. A arquitetura ISAM está baseada no conceito de adaptação, e provê o suporte para que a aplicação altere seu comportamento em resposta á variação do seu contexto de execução [YAM01].
O objetivo deste artigo é apresentar a arquitetura GRAMA e sua integração com o ISAM, e está estruturado da seguinte forma. Na seção 2, apresenta-se uma caracterização das redes com componentes móveis. Na sessão 3, é tratado o gerenciamento de redes, sendo discutida também a questão da mobilidade. A seção 4 concentra-se na modelagem do sistema de gerenciamento móvel proposto. A seção 5 apresenta a arquitetura ISAM e sua integração com GRAMA. Os trabalhos relacionados e as conclusões são apresentados na seção 6 e 7, respectivamente.Adaptación del núcleo IP de un procesador tipo MC6805 para operar en un ambiente multiprocesador y multitareaJaquenod, Guillermo A.Villagarcía Wanza, Horacio A.De Giusti, Marisa RaquelBria, Oscar N.http://sedici.unlp.edu.ar:80/handle/10915/234372019-04-05T20:02:08Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación (CACIC)
La disponibilidad de dispositivos de Lógica Programable de alta densidad de integración permite buscar soluciones integradas en un dispositivo SOPC (System On a Programmable Chip). Un tema de creciente interés son los procesadores empotrados, siendo usual un único procesador y un sistema operativo con capacidad de multitarea. Sin embargo, debe considerarse como alternativa insertar varios procesadores, no necesariamente idénticos, que pueden a su vez atender varias tareas. En un SOPC, como diferencia fundamental con los casos tradicionales de multiprocesamiento y multitarea, las tareas a realizar son conocidas antes de comenzar el diseño, por lo tanto hardware como software se pueden configurar a medida de la aplicación, combinando la velocidad propia del primero, con la versatilidad del segundo. Este artículo describe las modificaciones de hardware realizadas al núcleo IP (Intellectual Property) de un procesador, de modo de permitir la inclusión de un administrador de tareas por hardware y de canales de comunicación interprocesadores.
Eje: Sistemas operativos.
2001-10-01T00:00:00ZLa disponibilidad de dispositivos de Lógica Programable de alta densidad de integración permite buscar soluciones integradas en un dispositivo SOPC (System On a Programmable Chip). Un tema de creciente interés son los procesadores empotrados, siendo usual un único procesador y un sistema operativo con capacidad de multitarea. Sin embargo, debe considerarse como alternativa insertar varios procesadores, no necesariamente idénticos, que pueden a su vez atender varias tareas. En un SOPC, como diferencia fundamental con los casos tradicionales de multiprocesamiento y multitarea, las tareas a realizar son conocidas antes de comenzar el diseño, por lo tanto hardware como software se pueden configurar a medida de la aplicación, combinando la velocidad propia del primero, con la versatilidad del segundo. Este artículo describe las modificaciones de hardware realizadas al núcleo IP (Intellectual Property) de un procesador, de modo de permitir la inclusión de un administrador de tareas por hardware y de canales de comunicación interprocesadores.Uma solução para gerenciamento de sistemas em linux.Soares, AndreyThiry, Marcellohttp://sedici.unlp.edu.ar:80/handle/10915/234362018-12-13T04:03:05Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
This work consists of a study of a model of network management using the SNMP architecture. The SNMP architecture is divided into Agent and M anagement applications, and in this paper the application called Agent will receive more attention.. The aspects worked in this paper start with the management functions and the necessity of MIB until the MIB definition and criation. The result, was the MI B definition that has the objective of storaging information about the hardware and Software inventary at workstations. It is also is presented the next steps of this work, where will be used the XML as language contents, where the objective is mapping MIB to XML.
Eje: Sistemas operativos
2001-10-01T00:00:00ZThis work consists of a study of a model of network management using the SNMP architecture. The SNMP architecture is divided into Agent and M anagement applications, and in this paper the application called Agent will receive more attention.. The aspects worked in this paper start with the management functions and the necessity of MIB until the MIB definition and criation. The result, was the MI B definition that has the objective of storaging information about the hardware and Software inventary at workstations. It is also is presented the next steps of this work, where will be used the XML as language contents, where the objective is mapping MIB to XML.Utilización de ciclos ociosos de servidores de internetChampredonde, RaúlPasini, Ariel C.La Battaglia, Juan Pablohttp://sedici.unlp.edu.ar:80/handle/10915/234352018-12-13T04:03:00Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Pueden encontrarse numerosos trabajos de investigación sobre el uso de los recursos ociosos de una red de estaciones de trabajo.
Este trabajo intenta aplicar las experiencias obtenidas a partir de esos trabajos para aprovechar la potencia de cálculo no utilizada por muchos servidores de Web, servidores de correo electrónico, y otros que puedan ser alcanzados por medio de las tecnologías de Internet.
Eje: Sistemas operativos
2001-10-01T00:00:00ZPueden encontrarse numerosos trabajos de investigación sobre el uso de los recursos ociosos de una red de estaciones de trabajo.
Este trabajo intenta aplicar las experiencias obtenidas a partir de esos trabajos para aprovechar la potencia de cálculo no utilizada por muchos servidores de Web, servidores de correo electrónico, y otros que puedan ser alcanzados por medio de las tecnologías de Internet.Um Estudo Comparativo entre algoritmos de criptografia DES – Lucifer (1977) e AES – Rijndael (2000)Ribeiro, Vinicius Gadishttp://sedici.unlp.edu.ar:80/handle/10915/234332018-12-13T04:02:56Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
A criptografia está diretamente relacionada á segurança; com ela busca-se garantir que, mesmo que uma informação seja acessada por uma pessoa não-autorizada, dificilmente o conteúdo será conhecido. A criptografia é a forma mais antiga de escrevemos uma mensagem de maneira que apenas pessoas autorizadas - normalmente o emissor e o receptor - tenham conhecimento do conteúdo que está sendo transmitido. O uso da criptografia antecede o trabalho com o computador, desde a Roma Antiga os imperadores já faziam uso destas técnicas para transmitir comandos á seus soldados, culminando sua utilização durante o período da Segunda Guerra Mundial.
Todas as técnicas de criptografia conhecida como "convencional" - ou de bloco - são derivadas da substituição e da transposição [5]. Basicamente, a substituição consiste na troca simples de um dígito ou bloco dígitos por outros. A transposição é normalmente efetuada em blocos de caracteres, onde as posições vão sendo trocadas em pares ordenados ou através de processos de arranjo, combinação o permutação. Mesmo não sendo uma técnica criptográfica, as chaves são de extrema eficiência no ato de barrar a quebra do arquivo cifrado. As chaves são agregadas ao código, buscando manter a mesma distribuição de freqüência encontrada das letras dentro do texto.
O recente processo seletivo para definir o novo padrão criptográfico americano - Advanced Encryption Standard(AES), que passa a substituir o Data Encryption Standard (DES) - leva a algumas questões: que melhorias foram incorporadas no novo padrão, além de garantir se o novo padrão será melhor do que o anterior em todos os aspectos - considerando-se sobretudo os aspectos de desempenho. Buscando-se responder a essas questões, conduziu-se um estudo comparativo entre os dois algoritmos, por intermédio de uma experimentação.
A seguir, serão apresentados dados sobre os algoritmos de Criptografia Padrão de Dados - Data Encryption Standard (DES) e o Padrão Avançado de Criptografia - Advanced Encryption Standard (AES), apresentando o funcionamento de cada um e o conjunto de técnicas utilizadas até a geração do arquivo criptografado. Posteriormente, são apresentadas as condições de condução do experimento, seus resultados, e limitações e conclusões do presente trabalho.
Eje: Sistemas operativos
2001-10-01T00:00:00ZA criptografia está diretamente relacionada á segurança; com ela busca-se garantir que, mesmo que uma informação seja acessada por uma pessoa não-autorizada, dificilmente o conteúdo será conhecido. A criptografia é a forma mais antiga de escrevemos uma mensagem de maneira que apenas pessoas autorizadas - normalmente o emissor e o receptor - tenham conhecimento do conteúdo que está sendo transmitido. O uso da criptografia antecede o trabalho com o computador, desde a Roma Antiga os imperadores já faziam uso destas técnicas para transmitir comandos á seus soldados, culminando sua utilização durante o período da Segunda Guerra Mundial.
Todas as técnicas de criptografia conhecida como "convencional" - ou de bloco - são derivadas da substituição e da transposição [5]. Basicamente, a substituição consiste na troca simples de um dígito ou bloco dígitos por outros. A transposição é normalmente efetuada em blocos de caracteres, onde as posições vão sendo trocadas em pares ordenados ou através de processos de arranjo, combinação o permutação. Mesmo não sendo uma técnica criptográfica, as chaves são de extrema eficiência no ato de barrar a quebra do arquivo cifrado. As chaves são agregadas ao código, buscando manter a mesma distribuição de freqüência encontrada das letras dentro do texto.
O recente processo seletivo para definir o novo padrão criptográfico americano - Advanced Encryption Standard(AES), que passa a substituir o Data Encryption Standard (DES) - leva a algumas questões: que melhorias foram incorporadas no novo padrão, além de garantir se o novo padrão será melhor do que o anterior em todos os aspectos - considerando-se sobretudo os aspectos de desempenho. Buscando-se responder a essas questões, conduziu-se um estudo comparativo entre os dois algoritmos, por intermédio de uma experimentação.
A seguir, serão apresentados dados sobre os algoritmos de Criptografia Padrão de Dados - Data Encryption Standard (DES) e o Padrão Avançado de Criptografia - Advanced Encryption Standard (AES), apresentando o funcionamento de cada um e o conjunto de técnicas utilizadas até a geração do arquivo criptografado. Posteriormente, são apresentadas as condições de condução do experimento, seus resultados, e limitações e conclusões do presente trabalho.Um estudo sobre métodos de pesquisa utilizados em segurança computacional - Criptografia IntroduçãoRibeiro, V. G.http://sedici.unlp.edu.ar:80/handle/10915/234322018-12-13T04:02:52Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
O atual modelo de produção científica tem como maior prioridade a promoção dessa produção através de artigos publicados em eventos científicos, o qual foram referendados por sua qualidade através de um corpo editorial.
Não há uma forma explícita de escrever a forma como foi produzido o conhecimento do trabalho de pesquisa. Contudo, um modelo convencional para artigos científicos na Ciência da Computação inclui, tradicionalmente, os seguintes elementos [23]:
1. trabalho descreve uma nova idéia, talvez prototipada em um pequeno sistema; e/ou
2. trabalho alega o seu lugar na Ciência, realizando comparações de características - ou seja, o relatório apresenta uma lista de características, e compara qualitativamente antigas abordagens com a nova, característica a característica.
Tal artigo poderia ser considerado satisfatório, se vem a apresentar uma idéia realmente radical, ou uma quebra de paradigma. Talvez, quando pela primeira vez se realizou um experimento usando Java, ou ao se propor um Navegador Web, tenha havido essa mudança ou descoberta.
Eje: Sistemas operativos
2001-10-01T00:00:00ZO atual modelo de produção científica tem como maior prioridade a promoção dessa produção através de artigos publicados em eventos científicos, o qual foram referendados por sua qualidade através de um corpo editorial.
Não há uma forma explícita de escrever a forma como foi produzido o conhecimento do trabalho de pesquisa. Contudo, um modelo convencional para artigos científicos na Ciência da Computação inclui, tradicionalmente, os seguintes elementos [23]:
1. trabalho descreve uma nova idéia, talvez prototipada em um pequeno sistema; e/ou
2. trabalho alega o seu lugar na Ciência, realizando comparações de características - ou seja, o relatório apresenta uma lista de características, e compara qualitativamente antigas abordagens com a nova, característica a característica.
Tal artigo poderia ser considerado satisfatório, se vem a apresentar uma idéia realmente radical, ou uma quebra de paradigma. Talvez, quando pela primeira vez se realizou um experimento usando Java, ou ao se propor um Navegador Web, tenha havido essa mudança ou descoberta.Um ambiente com navegação adaptativa baseada nos objetivos dos educandosSchreiber, Jacques N.C.Wazlawick, Raul Sidneihttp://sedici.unlp.edu.ar:80/handle/10915/234292018-12-13T04:02:48Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Existe um grande interesse na WWW para aplicações educacionais. Vários autores já descreveram as inúmeras vantagens em utilizá-la para a educação [KIY 95] . Entretanto deve--se observar que a WWW é somente um instrumento que pode ser utilizado para promover a educação a distância. A efetividade do sistema depende, entre outros fatores, da qualidade do material subjacente e da estrutura navegacional implementada. Neste artigo, são pesquisados os aspectos de acesso a informação em um hipertexto.
Eje: Sistemas operativos
2001-10-01T00:00:00ZExiste um grande interesse na WWW para aplicações educacionais. Vários autores já descreveram as inúmeras vantagens em utilizá-la para a educação [KIY 95] . Entretanto deve--se observar que a WWW é somente um instrumento que pode ser utilizado para promover a educação a distância. A efetividade do sistema depende, entre outros fatores, da qualidade do material subjacente e da estrutura navegacional implementada. Neste artigo, são pesquisados os aspectos de acesso a informação em um hipertexto.Medición de demanda y de capacidad en redes IPPopovsky, Alejandro DanielPeña, Horacio Joséhttp://sedici.unlp.edu.ar:80/handle/10915/234272018-12-13T04:02:43Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
El objetivo de este trabajo es sentar las bases para medir y analizar el tipo de demanda de capacidad que una comunidad de interés genera sobre la Internet. Una vez conocida la demanda sobre la red es posible deducir la capacidad disponible para el tráfico generado por esa comunidad y su evolución en el tiempo. Se propone un esquema de clasificación del tipo de tráfico y se describen los criterios necesarios para su detección por medio de un analizador. Se describen las formas de aprovechar la información obtenida de este análisis. Se detallan las experiencias realizadas con un analizador construido en la Universidad de Palermo que implementa los conceptos desarrollados en este trabajo.
Eje: Sistemas operativos
2001-10-01T00:00:00ZEl objetivo de este trabajo es sentar las bases para medir y analizar el tipo de demanda de capacidad que una comunidad de interés genera sobre la Internet. Una vez conocida la demanda sobre la red es posible deducir la capacidad disponible para el tráfico generado por esa comunidad y su evolución en el tiempo. Se propone un esquema de clasificación del tipo de tráfico y se describen los criterios necesarios para su detección por medio de un analizador. Se describen las formas de aprovechar la información obtenida de este análisis. Se detallan las experiencias realizadas con un analizador construido en la Universidad de Palermo que implementa los conceptos desarrollados en este trabajo.Materialización de controladores difusos activosAcosta, Nelsonhttp://sedici.unlp.edu.ar:80/handle/10915/234252018-12-12T20:03:09Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Los controladores difusos (FLC) pueden ser implementados por hardware estándar, microtrontroladores dedicados o circuitos de aplicación específica.
Históricamente, para obtener un FLC de altas prestaciones se baja en el nivel de abstracción de la materialización, así se obtienen controladores hardware a medida de la aplicación de muy altas prestaciones. En este artículo, se presentan técnicas que permiten el desarrollo de FLC que dupliquen (como mínimo) su frecuencia de funcionamiento sobre la misma plataforma. Estas técnicas se basan principalmente en reglas activas, y además se propone el concepto de fusificación y defusificación activa.
Eje: Sistemas operativos
2001-10-01T00:00:00ZLos controladores difusos (FLC) pueden ser implementados por hardware estándar, microtrontroladores dedicados o circuitos de aplicación específica.
Históricamente, para obtener un FLC de altas prestaciones se baja en el nivel de abstracción de la materialización, así se obtienen controladores hardware a medida de la aplicación de muy altas prestaciones. En este artículo, se presentan técnicas que permiten el desarrollo de FLC que dupliquen (como mínimo) su frecuencia de funcionamiento sobre la misma plataforma. Estas técnicas se basan principalmente en reglas activas, y además se propone el concepto de fusificación y defusificación activa.Diferentes arquitecturas aplicadas a la implementación de un controlador difuso para el péndulo invertidoAcosta, NelsonSimonelli, Daniel Horaciohttp://sedici.unlp.edu.ar:80/handle/10915/234242018-12-13T04:02:39Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Se utilizó un péndulo como dispositivo controlado en el prototipo de un sistema de control de tiempo real empleando diferentes arquitecturas. Se diseñaron algoritmos de control para la evaluación como así también el hardware requerido para comprobar su comportamiento. En estas condiciones, se obtuvieron como métricas del desempeño de las cinco arquitecturas, el número de Inferencias Difusas por Segundo (FIPS) y el número de Reglas Difusas por Segundo (FRPS). Se analizaron dichos valores y se discuten futuras ampliaciones.
Eje: Sistemas operativos
2001-10-01T00:00:00ZSe utilizó un péndulo como dispositivo controlado en el prototipo de un sistema de control de tiempo real empleando diferentes arquitecturas. Se diseñaron algoritmos de control para la evaluación como así también el hardware requerido para comprobar su comportamiento. En estas condiciones, se obtuvieron como métricas del desempeño de las cinco arquitecturas, el número de Inferencias Difusas por Segundo (FIPS) y el número de Reglas Difusas por Segundo (FRPS). Se analizaron dichos valores y se discuten futuras ampliaciones.Puntos clave para el desarrollo de una aplicación segura usando firma digitalDíaz, Francisco JavierVenosa, Paulahttp://sedici.unlp.edu.ar:80/handle/10915/234232018-12-13T04:02:33Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
El auge de la firma digital para asegurar transacciones en Internet es un hecho que no se puede pasar por alto hoy en día. Si bien la firma digital de mensajes de correo electrónico y de transacciones WEB es muy importante, existen un sinnúmero de aplicaciones que se pueden beneficiar al introducir un esquema de seguridad que tenga como eje la firma digital (para garantizar, por ejemplo, autenticidad y no repudio). El presente artículo describe los puntos más importantes para construir una aplicación de este tipo. La propuesta se ilustra con un prototipo desarrollado y operativo en el LINTI, laboratorio de la Facultad de Informática de la Universidad Nacional de La Plata, llevado a cabo por Verónica Fredes y Paula Venosa.
Eje: Sistemas operativos
2001-10-01T00:00:00ZEl auge de la firma digital para asegurar transacciones en Internet es un hecho que no se puede pasar por alto hoy en día. Si bien la firma digital de mensajes de correo electrónico y de transacciones WEB es muy importante, existen un sinnúmero de aplicaciones que se pueden beneficiar al introducir un esquema de seguridad que tenga como eje la firma digital (para garantizar, por ejemplo, autenticidad y no repudio). El presente artículo describe los puntos más importantes para construir una aplicación de este tipo. La propuesta se ilustra con un prototipo desarrollado y operativo en el LINTI, laboratorio de la Facultad de Informática de la Universidad Nacional de La Plata, llevado a cabo por Verónica Fredes y Paula Venosa.Una visión arquitectónica de sistema para aplicaciones en domóticaWainerman, EfraimCrespo, Aldo AbelOlsina Santos, Luis AntonioLapine, P.Puschini, G.http://sedici.unlp.edu.ar:80/handle/10915/234222018-12-13T04:02:28Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
En el presente paper se ilustra una arquitectura de sistema para el control y monitoreo de módulos domóticos. Por una parte, la arquitectura de software se centra en un ambiente distribuido homogéneo pudiendo acceder a la funcionalidad de módulos domóticos, por medio de una Intranet o Internet. Por otra parte, se emplea una arquitectura distribuida CAN (Controller Area Network) en cuanto a la infraestructura para acceder a los dispositivos de sensado y actuación. Debido a que en trabajos anteriores se ha discutido la arquitectura de software, en este paper nos centraremos en las interfaces, capas y nodos funcionales para programar, controlar y monitorear un edificio así llamado inteligente. Se presenta consideraciones finales y futuros avances en el empleo de arquitecturas de software y hardware con potencial repercusión para el campo de la Domótica, entre otros dominios.
Eje: Sistemas operativos
2001-10-01T00:00:00ZEn el presente paper se ilustra una arquitectura de sistema para el control y monitoreo de módulos domóticos. Por una parte, la arquitectura de software se centra en un ambiente distribuido homogéneo pudiendo acceder a la funcionalidad de módulos domóticos, por medio de una Intranet o Internet. Por otra parte, se emplea una arquitectura distribuida CAN (Controller Area Network) en cuanto a la infraestructura para acceder a los dispositivos de sensado y actuación. Debido a que en trabajos anteriores se ha discutido la arquitectura de software, en este paper nos centraremos en las interfaces, capas y nodos funcionales para programar, controlar y monitorear un edificio así llamado inteligente. Se presenta consideraciones finales y futuros avances en el empleo de arquitecturas de software y hardware con potencial repercusión para el campo de la Domótica, entre otros dominios.Parameter control in multirecombinated evolutionary algorithms for the flow shop scheduling problemVilanova, GabrielaVillagra, AndreaPandolfi, DanielSan Pedro, María Eugenia deGallard, Raúl Hectorhttp://sedici.unlp.edu.ar:80/handle/10915/234202018-12-12T20:03:03Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Improvements in evolutionary algorithms (EAs) consider multirecombination, allowing multiple crossover operations on a pair of parents (MCPC, multiple crossovers per couple) or on a set of multiple parents (MCMP, multiple crossovers on multiple parents). Evolutionary algorithms have been successfully applied to solve scheduling problems. MCMP-STUD and MCMP-SRI are novel MCMP variants, which considers the inclusion of a stud-breeding individual in a pool of random immigrant parents In this paper the proposal is to generate the stud-breeding individual by means of a robust conventional heuristic, the CDS. In a multirecombined EA, setting of parameters n1 (number of crossovers) and n2 (number of parents) remained as an open question. In previous works; they were empirically determined, or a deterministic rule was applied. In this paper self adaptation of parameters n1 and n2 is implemented, the idea is to code the parameters within the chromosome and undergo genetic operations. Hence it is expected that better parameter values be more intensively propagated.
The present paper discusses different multi-recombined methods and contrasts their performance when different parameter control methods are applied, to find the minimum makespan for selected instances of the FSSP.
Eje: Sistemas inteligentes
2001-10-01T00:00:00ZImprovements in evolutionary algorithms (EAs) consider multirecombination, allowing multiple crossover operations on a pair of parents (MCPC, multiple crossovers per couple) or on a set of multiple parents (MCMP, multiple crossovers on multiple parents). Evolutionary algorithms have been successfully applied to solve scheduling problems. MCMP-STUD and MCMP-SRI are novel MCMP variants, which considers the inclusion of a stud-breeding individual in a pool of random immigrant parents In this paper the proposal is to generate the stud-breeding individual by means of a robust conventional heuristic, the CDS. In a multirecombined EA, setting of parameters n1 (number of crossovers) and n2 (number of parents) remained as an open question. In previous works; they were empirically determined, or a deterministic rule was applied. In this paper self adaptation of parameters n1 and n2 is implemented, the idea is to code the parameters within the chromosome and undergo genetic operations. Hence it is expected that better parameter values be more intensively propagated.
The present paper discusses different multi-recombined methods and contrasts their performance when different parameter control methods are applied, to find the minimum makespan for selected instances of the FSSP.Un método para tratar con el problema de Cluster-Aliasing en robots que aprendenMatuk Herrera, RosanaSantos, Juan Miguelhttp://sedici.unlp.edu.ar:80/handle/10915/234192018-12-12T04:05:36Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
El aprendizaje de tareas en robots móviles, mediante aprendizaje por refuerzo, involucra la construcción de una política que permita al agente decidir qué acción tomar en cada situación censada. Construir esta política en problemas reales implica el manejo de grandes espacios de situaciones y acciones. Por lo tanto, es necesario recurrir a técnicas de clustering para tratar con estos espacios de una forma computacionalmente manejable. Si el agente no es capaz de clasificar adecuadamente las situaciones censadas, asignando a cada clase la acción correcta, el aprendizaje será perjudicado por el clusterting-aliasing, o por un clustering excesivamente refinado, con el cual desperdiciará recursos y perderá capacidad para generalizar. El grado de clusterización debe depender no sólo de la complejidad del ambiente, sino también la complejidad de la tarea a aprender. En el mismo ambiente, una tarea sencilla para ser aprendida con éxito, debería requerir menos distinciones de situaciones que una más compleja. Encontrar la cantidad justa de clusters que se necesita no es una tarea trivial [10].
En este trabajo se propone una métrica para medir el grado de cluster-aliasing, y un nuevo algoritmo para aproximar la cantidad justa de clusters disminuyendo el grado de cluster-aliasing. Presentaremos resultados experimentales en robots móviles Khepera que respaldan la performance del algoritmo propuesto.
Eje: Sistemas inteligentes
2001-10-01T00:00:00ZEl aprendizaje de tareas en robots móviles, mediante aprendizaje por refuerzo, involucra la construcción de una política que permita al agente decidir qué acción tomar en cada situación censada. Construir esta política en problemas reales implica el manejo de grandes espacios de situaciones y acciones. Por lo tanto, es necesario recurrir a técnicas de clustering para tratar con estos espacios de una forma computacionalmente manejable. Si el agente no es capaz de clasificar adecuadamente las situaciones censadas, asignando a cada clase la acción correcta, el aprendizaje será perjudicado por el clusterting-aliasing, o por un clustering excesivamente refinado, con el cual desperdiciará recursos y perderá capacidad para generalizar. El grado de clusterización debe depender no sólo de la complejidad del ambiente, sino también la complejidad de la tarea a aprender. En el mismo ambiente, una tarea sencilla para ser aprendida con éxito, debería requerir menos distinciones de situaciones que una más compleja. Encontrar la cantidad justa de clusters que se necesita no es una tarea trivial [10].
En este trabajo se propone una métrica para medir el grado de cluster-aliasing, y un nuevo algoritmo para aproximar la cantidad justa de clusters disminuyendo el grado de cluster-aliasing. Presentaremos resultados experimentales en robots móviles Khepera que respaldan la performance del algoritmo propuesto.Studs and immigrants in multirecombined evolutionary algorithm to face weighted tardiness scheduling problemsPandolfi, DanielSan Pedro, María Eugenia deVillagra, AndreaVilanova, GabrielaGallard, Raúl Hectorhttp://sedici.unlp.edu.ar:80/handle/10915/234172018-12-13T04:02:23Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Jobs to be delivered in a production system are usually weighted according to clients requirements and relevance. Attempting to achieve higher customer satisfaction trends in manufacturing are focussed today on production policies, which emphasizes minimum weighted tardiness.
Evolutionary algorithms have been successfully applied to solve scheduling problems. New trends to enhance evolutionary algorithms introduced multiple-crossovers-on-multiple-parents (MCMP) a multirecombinative approach allowing multiple crossovers on the selected pool of (more than two) parents. MCMP-SRI is a novel MCMP variant, which considers the inclusion of a stud-breeding individual in a pool of random immigrant parents. Members of this mating pool subsequently undergo multiple crossover operations.
This paper briefly describes the weighted tardiness problem in a single machine environment, and summarizes implementation details and MCMP-SRI performance for a set of problem instances extracted from the OR-Library.
Eje: Sistemas inteligentes
2001-10-01T00:00:00ZJobs to be delivered in a production system are usually weighted according to clients requirements and relevance. Attempting to achieve higher customer satisfaction trends in manufacturing are focussed today on production policies, which emphasizes minimum weighted tardiness.
Evolutionary algorithms have been successfully applied to solve scheduling problems. New trends to enhance evolutionary algorithms introduced multiple-crossovers-on-multiple-parents (MCMP) a multirecombinative approach allowing multiple crossovers on the selected pool of (more than two) parents. MCMP-SRI is a novel MCMP variant, which considers the inclusion of a stud-breeding individual in a pool of random immigrant parents. Members of this mating pool subsequently undergo multiple crossover operations.
This paper briefly describes the weighted tardiness problem in a single machine environment, and summarizes implementation details and MCMP-SRI performance for a set of problem instances extracted from the OR-Library.Modeling sonic logs in oil wells: a comparison of neural networks ensembles and kernel methodsGranitto, Pablo MiguelNavone, Hugo DanielVerdes, Pablo FabiánCeccatto, Hermenegildo Alejandrohttp://sedici.unlp.edu.ar:80/handle/10915/234162019-11-05T18:59:07Z2001-10-01T00:00:00ZObjeto de conferencia
VII Congreso Argentino de Ciencias de la Computación
Oil well logs are frequently used to determine the mineralogy and physical properties of potential reservoir rocks, and the nature of the fluids they contain. Recently we reported an exploratory use of neural network ensembles for modeling these records. We showed that ensembles are clearly superior to linear multivariate regression as modeling technique, revealing an underlying nonlinear functional dependency between the correlated variables. In this work we use kernel methods to develop nonlinear local models relating Sonic logs (transit time of compressional waves) with other commonly measured properties (Resistivity and Natural Formation Radioactivity Level or Gamma Ray log). The kernel considered is conceptually simple and numerically robust, and allows to obtain the same performance as neural networks ensembles on this task.
Eje: Sistemas inteligentes
2001-10-01T00:00:00ZOil well logs are frequently used to determine the mineralogy and physical properties of potential reservoir rocks, and the nature of the fluids they contain. Recently we reported an exploratory use of neural network ensembles for modeling these records. We showed that ensembles are clearly superior to linear multivariate regression as modeling technique, revealing an underlying nonlinear functional dependency between the correlated variables. In this work we use kernel methods to develop nonlinear local models relating Sonic logs (transit time of compressional waves) with other commonly measured properties (Resistivity and Natural Formation Radioactivity Level or Gamma Ray log). The kernel considered is conceptually simple and numerically robust, and allows to obtain the same performance as neural networks ensembles on this task.