Datasets:

text
stringlengths
54
15k
label
class label
12 classes
Alexander Grothendieck (Berlín, Estado Libre de Prusia, 28 de marzo de 1928-Saint-Girons, Ariège, 13 de noviembre de 2014)[1]​ fue un matemático apátrida,[2]​ nacionalizado francés en los años 1980. Durante la segunda mitad del siglo XX llevó a cabo un extraordinario proceso de unificación de la aritmética, la geometría algebraica y la topología, dando gran impulso al desarrollo de estas tres ramas fundamentales de la matemática.[3]​[4]​ Es considerado por muchos el matemático más importante del siglo XX.[5]​[6]​[7]​
3Ciencia_y_Tecnología
La industria de pataques o metalurgia del cobre, varía según la composición de la mena. El cobre en bruto se tritura, se lava y se prepara en barras. Los óxidos y carbonatos se reducen con carbono. Las menas más importantes, las formadas por sulfuros, no contienen más de un 12% de cobre, llegando en ocasiones tan sólo al 1%, y han de triturarse y concentrarse por flotación. Los concentrados se funden en un horno de reverbero que produce cobre metálico en bruto con una pureza aproximada del 98%. Este cobre en bruto se purifica por electrólisis, obteniéndose barras con una pureza que supera el 99,9 %. El cobre puro es blando, pero puede endurecerse posteriormente. Las aleaciones de cobre, mucho más duras que el metal puro, presentan una mayor resistencia y por ello no pueden utilizarse en aplicaciones eléctricas. No obstante, su resistencia a la corrosión es casi tan buena como la del cobre puro y son de fácil manejo. Las dos aleaciones más importantes son el latón, una aleación con zinc, y el bronce, una aleación con estaño. A menudo, tanto el zinc como el estaño se funden en una misma aleación, haciendo difícil una diferenciación precisa entre el latón y el bronce. Ambos se emplean en grandes cantidades. También se usa el cobre en aleaciones con oro, plata y níquel, y es un componente importante en aleaciones como el monel, el bronce de cañón y la plata alemana o alpaca. El cobre forma dos series de compuestos químicos: de cobre (I), en la que el cobre tiene una valencia de 1, y de cobre (II), en la que su valencia es 2. Los compuestos de cobre (I) apenas tienen importancia en la industria y se convierten fácilmente en compuestos de cobre (II) al oxidarse por la simple exposición al aire. Los compuestos de cobre (II) son estables. Algunas disoluciones de cobre tienen la propiedad de disolver la celulosa, por lo que se usan grandes cantidades de cobre en la fabricación de rayón. También se emplea el cobre en muchos pigmentos, en insecticidas como el verde de Schweinfurt, o en fungicidas como la mezcla de Burdeos, aunque para estos fines está siendo sustituido ampliamente por productos orgánicos sintéticos.
3Ciencia_y_Tecnología
Skunk Works es un pseudónimo oficial para los Programas de Desarrollo Avanzado de la Lockheed Martin, anteriormente llamado Proyectos de Desarrollo Avanzado de la Lockheed. Skunk Works es responsable del diseño de una serie de aeronaves, siendo su primer modelo el P-38 Lightning en 1939 y siguiéndole el P-80 Shooting Star en 1943. Los ingenieros de Skunk Works desarrollaron posteriormente el U-2, el SR-71 Blackbird, el F-117 Nighthawk, el F-22 Raptor y el F-35 Lightning II, este último utilizado por las fuerzas aéreas de varios países. La designación “skunk works” (literalmente, "los trabajos de la mofeta") es un término utilizado ampliamente en ingeniería y campos técnicos para describir a un grupo dentro de una organización al cual se le da un alto grado de autonomía y que no está afectado por la burocracia, con el propósito de trabajar en proyectos secretos o avanzados.
3Ciencia_y_Tecnología
La ciencia en el alma: textos escogidos de un racionalista apasionado es un libro del etólogo, biólogo evolutivo y divulgador científico británico Richard Dawkins, compuesto por una selección de 41 ensayos, conferencias y otros escritos compuestos a lo largo de su carrera.[1]​ El libro original en inglés, Science in the Soul: Selected Writings of a Passionate Rationalist, fue publicado en 2017 por Bantam Press, después de los dos volúmenes de su autobiografía. La traducción al español fue realizada por Pedro Pacheco González y publicada por Espasa en 2019.[1]​ La ciencia en el alma es la segunda colección de ensayos de Richard Dawkins, tras El capellán del diablo (2003).[2]​[3]​[4]​
3Ciencia_y_Tecnología
La técnica Phase Imaging AFMo Visualización por fase, es una técnica microscópica que permite observar en tiempo real y de manera simultánea cualquier cambio de forma o composición que se produzca en células, moléculas biológicas, circuitos nanoelectrónicos u otros objetos a escala nanométrica.
3Ciencia_y_Tecnología
En el sentido más general, la verificación es la comprobación de algo. Este término se utiliza especialmente en las ciencias, ingeniería, derecho y computación.
3Ciencia_y_Tecnología
Shopping24 Aplicaciones Multimedia (en alemán, shopping24 Gesellschaft für multimediale Anwendungen mbH), conocida como Shopping24, es un grupo de empresas operadoras de varios motores de búsqueda y portales de ventas en línea. El grupo, fundado en 2011, tiene su sede en Hamburgo, Alemania[1]​ y forma parte del Otto Group Digital Solutions,[2]​ empresa tecnológica perteneciente al Grupo Otto que se dedica a la proyección y constitución de empresas de comercio electrónico. Entre los portales más destacados de Shopping24 se encuentran shopping24.de, fashion24, smatch, yalook, living24 y discount24.[3]​[2]​
3Ciencia_y_Tecnología
São José dos Campos (San José de los Campos) es un municipio del Estado de São Paulo, Brasil. Localizado en el Vale do Paraíba, São José dos Campos es considerado el mayor centro de investigaciones en alta tecnología, automovilístico y de telecomunicaciones, material bélico, electrónicos, metalúrgica y sede del mayor complejo aeroespacial de Latinoamérica. Aquí están instaladas importantes multinacionales como Philips, Panasonic, Johnson & Johnson, General Motors (GM), Petrobras, Ericsson, Monsanto, la sede de Embraer, con la tercera pista de aviones más larga del mundo, entre otras compañías más. En el sector aeroespacial destaca el CTA, el INPE, el IEAV, el IAE y la ITA. Es la séptima ciudad del Estado. Según un estudio de las Naciones Unidas en 1999, San José dos Campos fue clasificada como una de las 25 mejores ciudades de Brasil en cuanto a calidad de vida. Con su alta renta per cápita, gran expectativa de vida e infraestructura de alto nivel, São José dos Campos es una ciudad segura que ofrece una gran variedad de comercios y servicios.
3Ciencia_y_Tecnología
ISO/IEC 7816 es un estándar internacional relacionado con las tarjetas de identificación electrónicas, en especial las tarjetas inteligentes, gestionado conjuntamente por la Organización Internacional de Normalización (ISO) y Comisión Electrotécnica Internacional (IEC). Se trata de una extensión de la ISO 7810. Está editada por el Comité Técnico Conjunto (JTC) 1 / Subcomité (SC) 17 de tarjetas e identificación personal.
3Ciencia_y_Tecnología
La Biographical Memoirs of Fellows of the Royal Society (Memorias biográficas de los Miembros de la Real Sociedad) es una revista académica sobre la historia de la ciencia publicado semestralmente por la Royal Society. También publica obituarios de Miembros de la Royal Society. Fue establecida en 1932 como Obituary Notices of Fellows of the Royal Society y lleva el título actual desde 1955, con numeración de volúmenes reiniciados desde 1. Antes de 1932, los obituarios se publicaban en el Proceedings of the Royal Society. Las memorias son un registro histórico significativo, y cada una incluye una completa (bibliografía) de obras separados en temas. Las memorias se escriben a menudo por un científico de la próxima generación, generalmente uno de los propios antiguos alumnos del sujeto, o un colega cercano. En muchos casos, el autor es también un compañero. Biografías notables publicadas en esta revista incluyen a Albert Einstein,[1]​ Alan Turing,[2]​ Bertrand Russell,[3]​ Claude Shannon,[4]​ Clement Attlee,[5]​ Ernst Mayr,[6]​ and Erwin Schrödinger.[7]​ Cada año, se reúnen alrededor de 20 a 25 memorias de miembros difuntos de la Real Sociedad, por el redactor jefe, en la actualidad Malcolm Longair, que sucedió a Trevor Stuart en 2016.
3Ciencia_y_Tecnología
El falsacionismo dogmático o naturalista es la variedad más débil del falsacionismo, admite la falibilidad de todas las teorías científicas, sin cualificaciones, pero retiene una base empírica infalible, es empirista sin ser inductivista; la honestidad científica consiste en especificar por adelantado un experimento tal que si el resultado contradice la teoría, esta debe ser abandonada. A las proposiciones no falsables, “el falsacionismo las despacha de un plumazo: las considera metafísicas y les niega rango científico”. Según la lógica del falsacionismo dogmático, la ciencia crece mediante reiteradas eliminaciones de teorías con la ayuda de los hechos sólidos. Este falsacionismo dogmático es insostenible porque descansa en dos supuestos falsos y un criterio de demarcación entre la ciencia y la no-ciencia muy restringido: El primer supuesto es que existe una frontera natural, psicológica, entre proposiciones teóricas y especulativas, por una parte y las proposiciones fácticas u observacionales o básicas por la otra -parte del enfoque naturalista del método científico-.El segundo supuesto: es que si una proposición satisface el criterio psicológico de ser fáctica u observacional, entonces es cierta, se puede decir que ha sido probada por los hechos. –tesis de la doctrina de la prueba observacional-.
3Ciencia_y_Tecnología
El ciclo de la investigación científica es una formulación de pasos a seguir a la hora de aplicar el método empírico-analítico aparte de la forma convencional extraída de la obra de Salkind.[1]​
3Ciencia_y_Tecnología
Un evento adverso (EA) es cualquier aparición inesperada y perjudicial en un paciente o un sujeto de ensayo clínico a quien se administró un producto farmacéutico que no tiene, necesariamente, una relación causal con el tratamiento. Por lo tanto, un evento adverso (EA) puede ser cualquier signo (incluyendo un hallazgo de laboratorio anormal), síntoma o enfermedad asociada con el uso de un medicamento (sometido a investigación) no deseado y negativo, esté relacionado o no al medicamento (sometido a investigación).[1]​[2]​ Los EA en los pacientes que participan en las pruebas clínicas tienen que ser informados al patrocinador del estudio y, si es necesario, se puede informar al Comité de Ética. Los eventos adversos caracterizados como "serios" (que causen la muerte, enfermedades que requieren de hospitalización, eventos que se consideren potencialmente mortales, que causen incapacidad o discapacidad persistente o significativa, defectos de nacimiento o anomalías congénitos o afecciones médicas importantes) tienen que ser informados a las autoridades reguladoras inmediatamente, mientras que los eventos adversos que no se consideren serios solo se documentan en el resumen anual enviados a la autoridad reguladora. El patrocinador recopila informes sobre los EA de los investigadores locales y notifica a todos los centros participantes sobre la gravedad del EA, así como sobre el criterio de los investigadores locales y los patrocinadores. Este proceso le permite al patrocinador y a todos los investigadores locales acceder a un conjunto de datos que puede informar sobre problemas potenciales del tratamiento de estudio mientras el estudio está en curso.
3Ciencia_y_Tecnología
DIN es el acrónimo de Deutsches Institut für Normung (Instituto Alemán de Normalización). El Deutsches Institut für Normung e.V. (su marca empresarial es DIN), con sede en Berlín, es el organismo nacional de normalización de Alemania. Elabora, en cooperación con el comercio, la industria, la ciencia, los consumidores e instituciones públicas, estándares técnicos (normas) para la racionalización y el aseguramiento de la calidad. El DIN representa los intereses alemanes en las organizaciones internacionales de normalización (ISO,[1]​ CEI,[2]​ entre otros). El comité electrotécnico es la DKE en DIN y VDE (Frankfurt). El DIN fue establecido el 22 de diciembre de 1917 como Normenausschuss der deutschen Industrie (NADI). El acrónimo DIN también ha sido interpretado como Deutsche Industrie Norm (Norma de la Industria Alemana) y Das Ist Norm (Esto es norma). A través de la metodología empleada en la elaboración de las normas se pretende garantizar que sus contenidos correspondan con el «estado del arte». La editorial Beuth-Verlag, relacionada con el DIN, se encarga de la venta y distribución de las normas editadas por el DIN y de las normas de otros organismos de normalización, tanto nacionales como extranjeros. Una norma DIN de uso habitual es la DIN 476, que define los formatos (o tamaños) de papel y que ha sido adoptada por la mayoría de los organismos nacionales de normalización de Europa. Otro uso DIN se aplicaba para expresar la sensibilidad del material fotográfico. Cada tres valores DIN se duplica la sensibilidad.
3Ciencia_y_Tecnología
Silicon Valley[1]​[2]​ (también conocido como Valle del Silicio)[3]​ es el nombre que recibe la zona sur del Área de la Bahía de San Francisco, en el norte de California, Estados Unidos.[4]​ La región cuyo nombre proviene del Valle de Santa Clara, incluye la mitad sur de la península de San Francisco, abarcando aproximadamente desde Menlo Park hasta San José y cuyo centro se situaría en Sunnyvale. Sin embargo, con el rápido aumento de la cantidad de puestos de trabajo relacionados con la tecnología en la zona metropolitana de San Francisco, las fronteras tradicionales de Silicon Valley se han expandido hacia el norte incluyendo el condado de San Mateo y la ciudad de San Francisco .[5]​ Originalmente la denominación se relacionaba con el gran número de innovadores y fabricantes de chips de silicio fabricados allí, pero definitivamente acabó haciendo referencia a todos los negocios de alta tecnología establecidos en la zona; en la actualidad es utilizado como un metónimo para el sector de alta tecnología de los Estados Unidos (a la manera de Hollywood para el cine estadounidense). A pesar del desarrollo de otros centros económicos de alta tecnología en Estados Unidos y por el mundo, Silicon Valley continúa siendo el centro líder para la innovación y desarrollo de alta tecnología, recibiendo un tercio (1/3) del total de la inversión de capital de riesgo en Estados Unidos, de empresas como JASD.[6]​
3Ciencia_y_Tecnología
Mario Biondi (Buenos Aires, 12 de septiembre de 1923-ibíd., 5 de febrero de 2016) fue un doctor en Ciencias Económicas, contador público, licenciado en Economía, profesor y directivo universitario, jurado de concursos docentes, investigador y director de institutos de investigación, director, organizador y expositor en maestrías, cursos, seminarios, conferencias y simposios, miembro de organismos de la profesión contable, árbitro de publicaciones sobre temas contables, así como autor de numerosos artículos y libros de su especialidad. Con una vasta trayectoria en la docencia y en la investigación universitarias, es uno de los autores contables más prolíficos y consultados de la Argentina. Sus aportes doctrinarios enriquecieron el debate sobre la información financiera y los efectos de la inflación, la normativa contable, la enseñanza de la Contabilidad y la metodología de la investigación contable.[1]​
3Ciencia_y_Tecnología
Ciencia dura y ciencia blanda son términos construidos de forma un tanto coloquial, no utilizados institucionalmente por su carácter problemático (no existen facultades ni licenciaturas de ciencias duras o de ciencias blandas), pero de uso epistemológico muy extendido para comparar campos de investigación científica o académica, designando como duros los que se quieren marcar como más científicos en el sentido de rigurosos y exactos, más capaces de producir predicciones y caracterizados como experimentales, empíricos, cuantificables y basados en datos y un método científico enfocado a la objetividad;[1]​ mientras que los designados como blandos quedan marcados con los rasgos opuestos. Diferentes aproximaciones al método científico pueden distinguirse por cómo consideran la diferencia entre los términos ciencia dura y ciencia blanda. Este es un asunto clave para la filosofía de la ciencia, que no siempre permite la posibilidad de marcar una diferencia clara entre ambos términos; y para los science studies y la sociología de la ciencia, que estudia las percepciones implícitas de la investigación y metodología.[2]​ Las ciencias naturales y las ciencias físicas se suelen incluir en el campo de las duras, mientras que las ciencias sociales o ciencias humanas se suelen incluir en el campo de las blandas,[3]​ cuando no se niega directamente su condición científica, no necesariamente de forma peyorativa[4]​ (como ocurre cuando un colega o rival denuncia a un científico del propio campo por ser poco riguroso, o cuando un científico procedente de un campo denuncia la escasa condición científica de un campo diferente al suyo), sino muy habitualmente como fruto de una diferente valoración o consideración, que a menudo surge de entre algunos de los propios cultivadores de un campo concreto de conocimiento que no son partidarios de considerar científica su actividad (por considerar tal cosa limitante o inadecuada) considerando más adecuado incluirla en el concepto de humanidades opuesto al de ciencias (véase Historia#Historia como ciencia). La oposición de ciencias y letras es el aspecto más visible del denominado debate de las dos culturas. No conviene confundir el término ciencia blanda con el pensamiento débil, concepto filosófico ligado a la denominada posmodernidad.
3Ciencia_y_Tecnología
Las ciencias fácticas, también llamadas ciencias factuales o ciencias empíricas, según una clasificación de las ciencias, son las que tienen el fin de comprender los hechos, es decir, crear una representación mental o artificial de los hechos lo más cercana a cómo son en la realidad o naturaleza. Para lograr esto, se utiliza la lógica, es decir, se asegura que los hechos no se contradigan entre sí en la representación mental, y la experimentación, para comprobar la similitud entre la representación mental o artificial y la realidad o naturaleza. Tienen, por su método, saberes provisorios, ya que las nuevas investigaciones pueden presentar representaciones artificiales más cercanas a las naturales que las que había anteriormente. Las ciencias que estudian las leyes de la lógica en sí, y sacan conclusiones o hipótesis de ellas para crear más leyes, son las llamadas ciencias formales, porque su materia de estudio son objetos y formas ideales o abstractas, que no existen en el mundo real o en la naturaleza tangible y por ende, no se pueden comprobar empíricamente. A su vez, las ciencias fácticas se dividen en dos: las ciencias naturales como la biología, física o química, que se limitan al estudio de la naturaleza (su aplicación a favor del hombre es la ingeniería, pero está limitada por la tecnología), y las ciencias sociales como la sociología, economía, política, que estudian la sociedad, y al tener el hombre poder sobre ella, hace sugerencias de cómo modificarla a su favor.
3Ciencia_y_Tecnología
Una estación meteorológica es una instalación destinada a medir y registrar regularmente diversas variables meteorológicas. Estos datos se utilizan tanto para la elaboración de predicciones meteorológicas a partir de modelos numéricos como para estudios climáticos.
3Ciencia_y_Tecnología
La vida útil es la duración estimada que un objeto puede tener, cumpliendo correctamente con la función para el cual ha sido creado. Normalmente se calcula en horas de duración. Cuando se refiere a obras de ingeniería, como carreteras, puentes, represas, etc., se calcula en años, sobre todo para efectos de su amortización, ya que en general estas obras continúan prestando utilidad mucho más allá del tiempo estimado como vida útil para el análisis de factibilidad económica.
3Ciencia_y_Tecnología
La historia de la gnomónica es parte de la historia tanto de la astronomía como de la matemática, y en parte también de la historia de la tecnología.[1]​ La gnomónica es el estudio de la medida del tiempo mediante el empleo de relojes solares, e involucra tanto su diseño como su construcción y sus propiedades geométricas. Durante la historia de la humanidad ha habido diferentes sistemas horarios, y antes de la aparición de los relojes mecánicos en el siglo xiv, eran los instrumentos más habituales mediante los que se medía el tiempo, junto con clepsidras y otros dispositivos como relojes de arena y de fuego (siguiendo la armonía de los cuatro elementos). Su diseño y construcción ha contribuido, no solo en la consciencia de la percepción del tiempo, sino que también en el progreso de la medida del tiempo por parte de la ciencia. La existencia de los cuadrantes solares fue habitual en las ciudades, en los templos, en las casas privadas, hasta la aparición de métodos más fiables de medida del tiempo.[2]​ La evolución de la gnomónica se ha visto influenciada por los diversos requerimientos de medir el tiempo que han existido a lo largo de la historia de la humanidad.[3]​ A veces estas necesidades han estado ligadas a las normas religiosas, en otros casos a las necesidades económicas, en algunas ocasiones a las necesidades sociales. Su auge se ve marcado por la mejor comprensión del movimiento del sol sobre la esfera celeste, así como de la disponibilidad de mejores formalismos matemáticos capaces de desarrollar eficientemente la gnomónica como una ciencia. Uno de los teóricos que primero desarrolló la teoría gnomónica desde la demostración fue el astrónomo alemán Christopher Clavius. Abriendo un «periodo dorado» que estuvo marcado por el diseño de relojes con mayores prestaciones en la medida del tiempo, así como por la creciente cantidad de libros publicados sobre gnomónica. Este periodo coincide, paradójicamente, con los avances de los primeros relojes mecánicos en el siglo xvii.[4]​ Siendo abandonados como instrumentos de medida del tiempo en las naciones occidentales ya a mediados del siglo xix. En el siglo xvii ya se comenzó a descubrir proyecciones no-gnomónicas capaces de medir el tiempo (en realidad cualquier transformación conforme permite hacerlo). A partir del siglo xvii su decadencia en el uso como instrumento de medida del tiempo irá creciendo progresivamente, a medida que quedan relegados por otras formas más precisas de medir el tiempo. A pesar de todo, a comienzos de siglo xx se produjo un desarrollo importante en la gnomónica teórica debido a un conjunto de estudiosos alemanes que desarrollaron los métodos de la geometría analítica aplicados a la gnomónica clásica.[5]​[1]​ Logrando unos buenos resultados con la creación de nuevos tipos de relojes y explicaciones añadidas al trazado de las líneas horarias. En la actualidad los relojes solares, y la gnomónica en general, forman parte de una curiosidad y entretenimiento de aquellos que quieren introducirse en el mundo de la «astronomía menor», existen numerosas asociaciones privadas, a veces vinculadas a grupos de astronomía y/o relojería a lo largo del mundo. Los relojes de sol, a pesar de este esfuerzo, se han relegado a simples elementos decorativos colocados en las fachadas, jardines, paseos marítimos.
3Ciencia_y_Tecnología
Se considera tecnología social a todo producto, método, proceso o técnica, creado para solucionar algún tipo de problema social y que atienda a los requisitos de simplicidad, bajo costo, fácil aplicabilidad (y replicabilidad) e impacto social comprobado. Según Renato Dagnino, la tecnología social debe adaptarse al tamaño pequeño, tornándose económicamente viable para pequeñas empresas y emprendimientos de autogestión.[1]​
3Ciencia_y_Tecnología
Robert William (10 de marzo de 1927, Gary, Indiana - 9 de febrero de 2005, Baltimore, Maryland) fue un ingeniero estadounidense, inventor del limpiaparabrisas intermitente, que es utilizado en la mayoría de los automóviles desde 1969. Demandó a las compañías de automóviles, primero a Ford, que tuvo que pagar diez Millones de dólares, y más tarde a otras, hasta dieciocho Millones, una vez ganados los juicios. Registró cinco patentes sobre su invento, la primera presentada el 1 de diciembre de 1964. Con ella acudió a las "tres grandes" empresas automovilísticas, pero todas rechazaron su propuesta. Sin embargo, comenzaron a producir e instalar limpiaparabrisas intermitentes en sus automóviles a partir de 1969 sin pagar a Kearns e infringiendo sus patentes, por lo que las demandó, ganando los juicios, uno por uno.
3Ciencia_y_Tecnología
La European Cooperation for Space Standardization o ECSS, es un conjunto de normas aplicables al desarrollo de proyectos espaciales europeos. Dicho conjunto se descompone en cuatro ramas: gestión de proyectos aseguramiento de la calidad ingeniería de sistemas desarrollo sostenible del espacio
3Ciencia_y_Tecnología
Las bandas de Lüders son bandas de deformación plástica que aparecen en algunos metales, como aceros con bajo contenido en carbono o algunas aleaciones de aluminio-magnesio,[1]​ cuando se los somete a tracción. El fenómeno fue descrito por primera vez por Guillaume Piobert y W. Lüders. La formación de bandas de Lüders depende por un lado de características microscópicas, como el tamaño de grano y estructura cristalina, y por otro lado de la geometría macroscópica de la pieza. Un ejemplo de esto último es el hecho de que una barra de acero de sección cuadrada sometida a tracción longitudinal tiende a desarrollar más bandas de Lüders que una barra del mismo material pero de sección circular.[2]​ Cuando se ensaya una probeta a tracción, la formación de una banda de Lüders va precedida por una plastificación seguida de una caída de la tensión. La banda entonces aparece separando una región que está deformada plásticamente de otra región que no presenta deformación plástica. La banda se propaga a medida que la deformación aumenta. La banda de Lüders suele aparecer en un extremo de la probeta y propagarse hacia el otro extremo.[3]​ El frente visible normalmente se sitúa en una línea recta que forma un ángulo entre 50° y 55° con la dirección de aplicación de la carga[4]​ y se propaga a lo largo del espécimen. Mientras se propaga la banda, la curva de tensión-deformación nominales permanece horizontal. Una vez la banda ha terminado de propagarse por la probeta, la curva tensión-deformación vuelve a ser creciente. A veces la banda de Lüders deriva en el efecto Portevin–Le Chatelier.
3Ciencia_y_Tecnología
El impacto tecnológico es el análisis de influencia de la tecnología en las distintas sociedades, ya sea de manera positiva, negativa o neutra. Dentro de este análisis sobre la actividad tecnológica podemos identificar distintos focos, tales como el impacto tecnológico en la cultura, y en el medio ambiente, en la sociedad y como consecuencia de esto, el impacto ideológico que ha tenido sobre las personas.[1]​ El vertiginoso desarrollo de la tecnología se ha convertido en uno de los productos fundamentales del consumo de la modernidad. Todo esto trae consigo cambios que repercuten en los procesos y fenómenos sociales, y más específicamente en la mente del ser humano, en su forma de vivir, pensar y hacer. Desde los orígenes de la humanidad, el crecimiento y expansión de la población, y por consiguiente de la sociedad en su conjunto, ha originado la aparición de diferentes tecnologías. Estas tecnologías, en su mayor parte, han facilitado el desarrollo de la sociedad y nos han dotado de herramientas para afrontar problemas que, hasta entonces, no tenían solución con los medios existentes en ese momento. En la actualidad, las tecnologías que en mayor medida están influyendo en la sociedad, son las relacionadas con la informática y las comunicaciónes, en las que destacan principalmente dos: Internet y las comunicaciones móviles. De hecho se dice que estamos en un nuevo tipo de sociedad denominada Sociedad de la información. En este sentido podemos ver el impactante cambio del que han sido parte las sociedades que conocemos como “Tecnologizadas”, donde podemos claramente apreciar las diferencias de economía en cuanto a tamaños y hasta cambios en la manera de establecer relaciones sociales entre personas de un país desarrollado tecnológicamente y uno rural o poco familiarizado con esta. Es por esto que hay que tener en cuenta que estos cambios pueden ser positivos, neutrales o negativos dependiendo del significado que las personas le atribuyan, Melvin Kranzber, un importante profesor en Historia de la Tecnología dijo 'La tecnología no es buena ni mala, ni tampoco neutral'.[2]​
3Ciencia_y_Tecnología
El término energía (del griego ἐνέργεια enérgeia, ‘actividad’ ‘operación’; de ἐνεργóς energós, ‘fuerza de acción’ o ‘fuerza de trabajo’) tiene diversas acepciones y definiciones, relacionadas con la idea de una capacidad para obrar, surgir, transformar o poner en movimiento. En física (específicamente en mecánica), energía se define como la capacidad para realizar un trabajo.[1]​ En tecnología y economía, «energía» se refiere a un recurso natural (incluyendo a su tecnología asociada para poder extraerla, transformarla y darle un uso industrial o económico). Para que se incluya, también a la termodinámica, podemos decir, que la energía es la capacidad de los cuerpos para realizar transformaciones (mediante trabajo o mediante calor) en ellos mismos o en otros cuerpos. Es decir, el concepto de energía se define como la capacidad de hacer funcionar las cosas. De todos modos, en la definición no abarca la noción de energía que tiene una onda electromagnética, por ejemplo. La masa y la energía están estrechamente relacionadas. Debido a la equivalencia masa-energía, cualquier objeto que tenga masa cuando está inmóvil (llamada masa en reposo) también tiene una cantidad equivalente de energía cuya forma se llama energía en reposo, y cualquier energía adicional (de cualquier forma) adquirida por el objeto por encima de esa energía en reposo aumentará la masa total del objeto al igual que aumenta su energía total. Por ejemplo, después de calentar un objeto, su aumento de energía podría medirse como un pequeño aumento de la masa, con una balanza suficientemente sensible. Los organismos vivos requieren energía para mantenerse vivos, como la energía que los humanos obtienen de los alimentos. La civilización humana requiere energía para funcionar, que obtiene de recursos energéticos como combustibles fósiles, combustible nuclear o energías renovables. Los procesos del clima y del ecosistema de la Tierra son impulsados por la energía radiante que la Tierra recibe del Sol y la energía geotérmica contenida en el interior de la Tierra. La unidad de medida que utilizamos para cuantificar la energía es el julio o joule (J), en honor al físico inglés James Prescott Joule.
3Ciencia_y_Tecnología
Ingeniería No-Recurrente o NRE del inglés Non-Recurring Engineering se refiere al costo único de investigación, desarrollo, diseño y prueba de un nuevo producto. Cuando se realiza el presupuesto de un proyecto se debe considerar el NRE para analizar si el producto va a ser rentable. Aunque el costo de NRE para el proceso de desarrollo de un proyecto ocurre una sola vez, a diferencia del costo de producción, estos costos pueden llegar a tener valores muy altos, requiriendo que la venta del producto sea muy alta para recuperar esta inversión inicial.
3Ciencia_y_Tecnología
Ajax Systems es una empresa tecnológica internacional con plantas de producción de ciclo completo ubicadas en Kiev. Fundada en 2011 en Kiev por Oleksandr Konotopskyi, la empresa desarrolla sistemas de seguridad inalámbricos y cableado. El producto principal de la empresa es Ajax: un sistema de seguridad inalámbrico de nivel profesional. En 2020, la línea de productos Ajax consta de 27 dispositivos, incluidos detectores que protegen contra robos, incendios e inundaciones, así como relés que controlan la alimentación de electrodomésticos. Los detectores pueden funcionar hasta 7 años con las baterías incorporadas. Para la comunicación dentro del sistema, los dispositivos utilizan Jeweller, un protocolo de radio bidireccional patentado. Jeweller garantiza un rango de alcance de hasta 2000 metros y un tiempo de recepción de alarma de 0,15 segundos.[1]​ Los productos de la empresa se venden en 93 países. En 2015, Ajax Systems recibió una inversión de 1 millón de dólares del fondo de capital riesgo SMRK[2]​ y $ 10 millones de Horizon Capital en 2019.[3]​
3Ciencia_y_Tecnología
La evaluación tecnoeconómica o análisis técnico-económico (TEA) es un marco metodológico para analizar el desempeño técnico y económico de un proceso, producto o servicio.[1]​ La TEA normalmente combina modelado de procesos, diseño de ingeniería y evaluación económica.[2]​ Ejemplos de aplicaciones de TEA incluyen la evaluación de la viabilidad económica de un proyecto específico, un pronóstico sobre la probabilidad del despliegue de una tecnología a cierta escala o una comparación del mérito económico de diferentes opciones tecnológicas que brindan el mismo servicio.[3]​
3Ciencia_y_Tecnología
Aerospace Valley es una agrupación francesa de empresas de ingeniería aeroespacial y centros de investigación. El clúster está situado en las regiones de Occitania y Aquitania, en el suroeste de Francia, y se concentra principalmente en las ciudades de Burdeos y Toulouse y sus alrededores. Las más de 500 empresas afiliadas (entre ellas Airbus, Air France Industries y Dassault Aviation) son responsables de unos 120.000 puestos de trabajo en las industrias de la aviación y los vuelos espaciales. Además, unos 8.500 investigadores trabajan en las empresas e instituciones afiliadas y en las tres principales facultades de ingeniería aeroespacial: ENAC, IPSA y SUPAERO.[2]​ El objetivo declarado del clúster es crear entre 40.000 y 45.000 nuevos puestos de trabajo de aquí a 2026.[3]​ Desde su creación en 2005, el clúster ha puesto en marcha unos 220 proyectos de investigación con un presupuesto total de 460 millones de euros, incluidos 204 millones de euros de financiación gubernamental.[2]​
3Ciencia_y_Tecnología
La economía evolucionista es una teoría económica tecnológica que estudia el comportamiento de los sistemas económicos desde una perspectiva dinámica, enfatizando en la importancia que ha tenido la innovación y el desarrollo de la tecnología en la evolución de la economía a lo largo del tiempo, otorgándole un carácter acumulativo al proceso económico. Se caracteriza por relacionar los fenómenos que ocurren en la economía (a través del uso analogías y metáforas de forma explícita o implícita) con principios biológicos propios de las ciencias naturales, como lo son las ideas básicas de la teoría Darwiniana. De acuerdo con los Económicos Evolucionistas, la base de sus teorías corresponde a una interpretación de los fenómenos económicos basada en la interacción de múltiples agentes heterogéneos —entre ellos, empresas e individuos—, quienes mediante la repetición de un sistema de «prueba y error» intentan continuamente explorar nuevas tecnologías, nuevas estrategias comportamentales, nuevas formas organizativas.[1]​
3Ciencia_y_Tecnología
Una esfera de Dyson es una megaestructura hipotética propuesta en 1960 por el físico Freeman Dyson, en un artículo de la revista Science llamado «Search for artificial stellar sources of infra-red radiation» (‘Búsqueda de fuentes estelares artificiales de radiación infrarroja’).[1]​ Tal esfera de Dyson es básicamente una cubierta esférica de talla astronómica (es decir, con un radio equivalente al de una órbita planetaria) alrededor de una estrella, la cual permitiría a una civilización avanzada aprovechar al máximo la energía lumínica y térmica del astro. Aunque el mérito se asocia a Freeman Dyson, una idea parecida fue propuesta en 1937 en una obra de ficción (Hacedor de estrellas, de Olaf Stapledon). Dyson no entra en demasiados detalles sobre la construcción de tal megaestructura, pero sí discute sobre las propiedades térmicas de tal ingenio, de modo que sugiere a los astrónomos buscar tales características en cuerpos celestes y así detectar civilizaciones extraterrestres avanzadas.
3Ciencia_y_Tecnología
El modelo SCOT (por las siglas en inglés de Social Construction of Technology), también conocido como Construcción social de la tecnología, es un programa que es parte de la sociología de la tecnología, en el que el proceso de desarrollo tecnológico es descrito como un proceso de variación y selección. Es un enfoque constructivista, teórico y empírico, para estudiar la innovación, diseminación y el procesado de tecnologías en sus contextos sociales. Contrariamente a otros enfoques en sociología de la tecnología, la configuración de la tecnología que ha tenido éxito no se considera como la única posible, y por lo tanto, este éxito es el explanandum, no el explanans.[1]​
3Ciencia_y_Tecnología
La Teoría del Actor-Red, conocida como ANT (siglas de la expresión inglesa Actor-Network Theory), es un enfoque ontológico característico de teoría social y de investigación originado en el campo de los estudios sociales de la ciencia en los años 1980. Fue iniciada por Bruno Latour, Michel Callon y otros investigadores del Centro de sociología de la innovación de Mines ParisTech, en Francia. También han colaborado en su elaboración investigadores anglosajones como John Law, Arie Rip, Susan Leigh Star y Geoffrey Bowker. Aunque es más conocida por su insistencia en la capacidad de los no humanos para actuar o participar en sistemas, redes o ambos, la ANT también se asocia con críticas contundentes de la sociología convencional y crítica.[1]​
3Ciencia_y_Tecnología
El modelo de aceptación de tecnología, conocido por sus siglas en inglés TAM (technology acceptance model) es una teoría de sistemas de información que modela cómo los usuarios llegan a aceptar y utilizar una tecnología. El modelo sugiere que cuando los usuarios se enfrentan con una tecnología nueva, existen un conjunto de factores que influyen en su decisión sobre cómo y cuándo lo utilizarán, especialmente: Utilidad percibida (PU): fue definido por Davis como «el grado en el cual una persona cree que utilizando un sistema particular lo destacará a él o a su rendimiento en el trabajo». Facilidad percibida de uso (PEOU): Davis lo definió como «el grado en el cual una persona cree que utilizando un sistema particular se liberará del esfuerzo».[1]​ Disfrute percibido (PD): Se refiere al grado en el cual una persona encuentra una actividad placentera al utilizar la tecnología. [2]​El modelo de aceptación de tecnología (TAM por sus siglas en inglés), de Davis está basado en la teoría de la acción razonada y en la teoría del comportamiento planeado, acorde a estas teorías, el comportamiento de las personas se puede predecir por las intenciones y por sus actitudes.[3]​[4]​ El TAM proporciona una base teórica para comprender y evaluar la aceptación de los usuarios hacia las nuevas tecnologías, permitiendo desarrollar e implementar mejores sistemas.[5]​ Se ha probado en muchas investigaciones, ante diversos contextos y ha demostrado ser una herramienta confiable para conocer la aceptación a las tecnologías.[6]​[7]​ El modelo TAM ha sido estudiado y expandido continuamente. Las dos mayores actualizaciones han sido TAM 2[8]​[9]​ y la Teoría Unificada de Aceptación y Uso de Tecnología (o UTAUT).[10]​ Un nuevo TAM 3 también ha sido propuesto en el contexto de comercio electrónico, con la inclusión de los efectos de la confianza y del riesgo percibido en el uso de un sistema.[11]​
3Ciencia_y_Tecnología
La escritura estructurada es una forma de escritura técnica que usa y crea documentos estructurados El término fue acuñado por Robert E. Horn y se convirtió en una parte central de su método de mapeo de información para analizar, organizar y mostrar el conocimiento en forma impresa y en la nueva presentación en línea de texto y gráficos. Horn y sus colegas identificaron docenas de tipos de documentación comunes y luego los analizaron en componentes estructurales llamados bloques de información. Identificaron más de 200 tipos de bloques comunes. Estos se reunieron en tipos de información utilizando mapas de información. Los siete tipos de información más comunes fueron concepto, procedimiento, proceso, principio, hecho, estructura y clasificación.
3Ciencia_y_Tecnología
Los primeros dispositivos para mejorar la audición fueron creados en el siglo XVII. El desarrollo de los dispositivos para llegar a los auxiliares modernos disponibles a principios del siglo XXI comenzó con la invención del teléfono, y el primer dispositivo auditivo eléctrico fue creado en 1898. Hacia finales del siglo XX, los dispositivos auditivos digitales ya eran comercializados al público en general. Algunos de los primeros dispositivos auditivos eran auxiliares externos. Los dispositivos auditivos externos direccionaban los sonidos frente al oído y bloqueaban todos los otros sonidos. El aparato se colocaba en el oído o detrás del mismo. La invención del micrófono de carbón, transmisores, chip digital procesador de señales o DSP, y el desarrollo de tecnología computacional ayudaron a transformar los dispositivos auditivos hasta adquirir sus características actuales.[1]​
3Ciencia_y_Tecnología
Bernard Charbonneau (28 de noviembre de 1910, Burdeos-28 de abril de 1996, Saint-Palais) fue un pensador francés, autor de una veintena de libros y de numerosos artículos publicados en La Gueule ouverte, Foi et vie, La République des Pyrénées y Combat Nature. Su obra se inscribe dentro de las corrientes antiindustriales y libertarias. Fue amigo de Jacques Ellul.
3Ciencia_y_Tecnología
o de dominio en la metalurgia, de las técnicas de conformación (colada y forja) y de los tratamientos térmicos; sin olvidar los aspectos artísticos o las artesanías relacionadas con los complementos (vainas, cinturones o pomos).
3Ciencia_y_Tecnología
El sector energético de una nación se refiere al sector de actividades primarias, secundarias y terciarias destinadas a la producción, transportación, innovación, manejo y venta de los productos energéticos del país. Los recursos energéticos de un país difieren según la abundancia y variedad de los recursos naturales del área. Entre los recursos energéticos más explotados se encuentran el petróleo, el gas natural, el carbón, etc. También existen diversos tipos de productos energéticos producidos de varias formas, como la electricidad.
3Ciencia_y_Tecnología
Femenmad fue un proyecto de investigación dedicado al estudio de la pobreza energética y su relación con el género (ciencias sociales) en Madrid, cuyos resultados se recogen en la publicación de título Feminización de la pobreza energética en Madrid. Exposición a extremos térmicos y, cuya metodología es aplicable a otros ámbitos urbanos y ciudades.[1]​
3Ciencia_y_Tecnología
Una base de conocimiento es un tipo especial de base de datos para la gestión del conocimiento. Provee los medios para la recolección, organización y recuperación computarizada de conocimiento.[1]​
3Ciencia_y_Tecnología
El test de Bosco está compuesto por una serie de saltos verticales, cuyo objetivo es valorar las características morfohistológicas (tipos de fibra muscular), funcionales (alturas y potencias mecánicas de salto) y neuromusculares (aprovechamiento de la energía elástica, reflejo miotático y resistencia a la fatiga) de la musculatura extensora de los miembros inferiores a partir de las alturas obtenidas en los distintos tipos de saltos verticales (Bosco y cols., 1983). Este test se puede realizar utilizando distintos tipos de saltos, en este caso realizamos un SJ, CMJ y un test de saltos continuos o repeat jump de 15”. Además de estos tres tipos de saltos podemos realizar el test con otras modalidades como son el abalakov, el drop jump (DJ), o el test de saltos continuos o repeat jump de distintos tiempos (15”, 30”, 45” o 60”), ya sea con SJ o CMJ, más comúnmente utilizado el segundo. El optojump es un sistema de medidas ópticas diseñado para medir los tiempos de vuelo y de contacto durante la realización de una serie de saltos. Es un sistema de obtención óptica de datos, compuesto de una barra óptica transmisora y una receptora. Cada una contiene de 32 a 96 LEDs Infrarrojos, según la resolución elegida. Estos LEDs están ubicados sobre la barra transmisora y se comunican continuamente con los leds ubicados en la barra receptora. El sistema detecta eventuales interrupciones y su duración.
3Ciencia_y_Tecnología
Un robot es holonómico si todas las restricciones a las que está sometido son integrables en las restricciones posicionales de la forma: f ( q 1 , q 2 , . . . , q n ; t ) = 0 {\displaystyle f(q_{1},q_{2},...,q_{n};t)=0} Las variables q i {\displaystyle q_{i}} son las coordenadas del sistema. Cuando un sistema contiene restricciones que no pueden escribirse en esta forma, debe ser no holonómico. En términos más simples, se dice que un sistema es holonómico cuando el número de grados de libertad controlables es igual a los grados totales de libertad.
3Ciencia_y_Tecnología
Las neuronas artificiales son microchips que pretenden imitar las funciones de las neuronas biológicas. Esta tecnología se está investigando y desarrollando actualmente y se pretende que dentro de unos años se pueda empezar a utilizar en los ámbitos de salud. Gracias a las neuronas artificiales se pueden crear redes neuronales artificiales (RNA).[1]​ Este tipo de neuronas artificiales responden a señales eléctricas que emite nuestro sistema nervioso de la misma manera que lo haría una neurona real biológica.
3Ciencia_y_Tecnología
El Observatorio Iberoamericano de la Ciencia, la Tecnología y la Sociedad es una institución creada por la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) en el año 2008. Su objetivo es llevar adelante un Programa de Estudios Estratégicos en Ciencia, Tecnología y Sociedad, que aborde las problemáticas de la ciencia y las demandas sociales en el ámbito de Iberoamérica. El Observatorio CTS cuenta con el apoyo de la Agencia Española de Cooperación Internacional para el Desarrollo (AECID).
3Ciencia_y_Tecnología
LaLiga Tech es la filial que reúne las soluciones tecnológicas de LaLiga. Creada en 2021, es la proveedora de herramientas digitales para la industria global del deporte y el entretenimiento.[1]​
3Ciencia_y_Tecnología
En filosofía de la ciencia, el instrumentalismo es una posición filosófica que sostiene que las teorías y modelos científicos no pretenden o no deben intentar representar la realidad, sino que son o deben ser instrumentos para manejarse en el mundo. Más precisamente, según esta perspectiva, las teorías científicas no son más que herramientas cuya finalidad es o bien heurística (útil para el avance del conocimiento) o bien predictiva (útil como base de pronósticos técnicos).[1]​[2]​ La posición instrumentalista es una consecuencia metodológica del fenomenismo, una perspectiva gnoseológica que se caracteriza por negar la posibilidad de que el conocimiento trascienda los fenómenos, es decir los productos de la experiencia humana, y consiga representar la realidad. Consecuentemente, el instrumentalismo se encuentra asociado a diversas variantes de empirismo, entre ellas el positivismo y el pragmatismo. Se trata, pues, de un tipo de antirrealismo, de una posición escéptica que se opone al realismo y, en particular, al realismo metodológico.[3]​ Cabe mencionar que para el instrumentalista o bien no hay auténticas explicaciones científicas o bien las considera idénticas a las descripciones, es decir a los datos empíricos y las generalizaciones o modelos que resumen esos datos empíricos.
3Ciencia_y_Tecnología
Una ley científica es una proposición científica que afirma una relación constante entre dos o más variables o factores, cada uno de los cuales representa una propiedad o medición de sistemas concretos. También se define como regla y norma constantes e invariables de las cosas, surgida de su causa primera o de sus cualidades y condiciones. Por lo general se expresa matemáticamente o en lenguaje formalizado. Las leyes muy generales pueden tener una prueba indirecta verificando proposiciones particulares derivadas de ellas y que sean verificables. Los fenómenos inaccesibles reciben una prueba indirecta de su comportamiento a través del efecto que puedan producir sobre otros hechos que sí sean observables o experimentables. En la arquitectura de la ciencia la formulación de una ley es un paso fundamental. Es la primera formulación científica como tal. En la ley se realiza el ideal de la descripción científica; se consolida el edificio entero del conocimiento científico: de la observación a la hipótesis teórica-formulación-observación-experimento (ley científica), teoría general, al sistema. El sistema de la ciencia es o tiende a ser, en su contenido más sólido, sistema de las leyes.[1]​ Diferentes dimensiones que se contienen en el concepto de ley:[2]​ La aprehensión meramente descriptiva Análisis lógico-matemático Intención ontológicaDesde un punto de vista descriptivo la ley se muestra simplemente como una relación fija, entre ciertos datos fenoménicos. En términos lógicos supone un tipo de proposición, como afirmación que vincula varios conceptos relativos a los fenómenos como verdad.[3]​ En cuanto a la consideración ontológica la ley como proposición ha sido interpretada históricamente como representación de la esencia, propiedades o accidentes de una sustancia. Hoy día se entiende que esta situación ontológica se centra en la fijación de las constantes del acontecer natural, en la aprehensión de las regularidades percibidas como fenómeno e incorporadas en una forma de «ver y explicar el mundo».[4]​ El problema epistemológico consiste en la consideración de la ley como verdad y su formulación como lenguaje y en establecer su «conexión con lo real», donde hay que considerar dos aspectos: El término de lo real hacia el cual intencionalmente se dirige o refiere la ley, es decir, la constancia de los fenómenos en su acontecer como objeto de conocimiento. Generalmente, y de forma vulgar, se suele interpretar como «relación causa/efecto» o «descripción de un fenómeno». Se formula lógicamente como una proposición hipotética en la forma: Si se da a, b, c.. en las condiciones, h, i, j... se producirá s, y, z...[5]​[6]​ La forma y el procedimiento con que la ley se constituye, es decir, el problema de la inducción.
3Ciencia_y_Tecnología
La relación entre la filosofía y la ciencia generalmente se concibe de dos maneras. En un caso, se supone que la filosofía debe ser enteramente compatible con la ciencia y que la debe tomar como referencia, siendo esta la filosofía científica. En el otro caso, se supone que la filosofía ha de tener vida propia sin responder a ninguna otra rama del conocimiento, a la que podríamos denominar filosofía especulativa.
3Ciencia_y_Tecnología
El National Physical Laboratory (NPL) –Laboratorio Nacional de Física[1]​– es el instituto nacional de metrología del Reino Unido. Se dedica a desarrollar y aplicar estándares de la ciencia y de la tecnología. Por otra parte, en 1968, poco antes de que la Agencia de Proyectos de Investigación Avanzado del Pentágono creara el ARPANET (diciembre de 1969) para el Departamento de Defensa de los Estados Unidos (El Pentágono), en el NPL ya se había diseñado el primer prototipo de una red descentralizada, basada en la conmutación de paquetes,[2]​ un concepto barajado en aquel entonces por, entre otras personas, Donald Davies, quien también acuñó el término packet para estos grupos de datos.[3]​ Entre otros métodos de difusión de la hora, el NPL dispone de una emisora de onda larga llamada MSF60 y situada en la localidad de Anthorn (Cumbria). La emisora opera en la frecuencia de 60 kHz con 60 kW, cubriendo la totalidad de las islas británicas y el noroeste de Europa. Existen relojes destinados a los consumidores con capacidad de sincronizar regularmente la hora con la señal de la emisora MSF60. Aunque las primeras instalaciones del NPL ocupaban el sótano y planta baja de Bushy House, un palacete en Teddington, al suroeste de Londres, con el tiempo el centro de investigación se fue ampliando hasta ocupar alrededor de 50 edificios en la finca a finales del siglo XX.[4]​ Asimismo, NPL tiene centros de investigación en la Universidad de Huddersfield –el NPL Huddersfield Laboratory del 3M Buckley Innovation Centre[5]​–, y el Wraysbury Open-Water Facility en el embalse de Wraysbury, al suroeste de Londres.[6]​
3Ciencia_y_Tecnología
El pulido o pulimentado (del latín politus y este de polire, pulir, suavizar, decorar, embellecer)[1]​ es la acción y el efecto de alisar y dar lustre y tersura a un objeto, hasta dotarlo de una superficie satinada o brillante. Los procedimientos para conseguirlo son distintos procesos industriales, como la abrasión (manual o mecánica) o el endurecimiento por deformación (con la utilización de un bruñidor).
3Ciencia_y_Tecnología
La tecnología en la Antigüedad en Europa hizo grandes progresos, especialmente a través del uso del hierro como material para fabricar armas y herramientas. La antigüedad clásica grecorromana es, por lo tanto, parte de la Edad del Hierro, que puede considerarse desde este punto de vista que duró al menos hasta la Revolución Industrial. Sin embargo, la utilización del bronce, conocido desde la Edad del Bronce, solo fue desplazado gradualmente.
3Ciencia_y_Tecnología
En la filosofía de la mente el materialismo eliminativo o eliminativismo, es una forma radical de materialismo (fisicalismo).
3Ciencia_y_Tecnología
Los sistemas tecnológicos son técnicas u objetos orientados a la facilitación o disminución del trabajo humano. Cuando hablemos de un sistema tecnológico, nos estaremos refiriendo a un conjunto de componentes y variables que contextualizarán la acción técnica humana.[1]​ [2]​ Cabe destacar que éstos utilizan los elementos disponibles y apropiados para reordenar el espacio (no necesariamente físico) de manera de ser considerados útiles o deseados.[3]​
3Ciencia_y_Tecnología
Con la expresión teoría de las signaturas, “teoría del signo” o doctrina de las signaturas, se alude a la convicción, presente tanto en la medicina antigua como en la medicina popular de muchos países, de que las plantas, los animales o los minerales llevan a menudo sobre sí los signos que permiten conocer sus virtudes. La interpretación de que las plantas y otros objetos llevan el signo de sus virtudes terapéuticas o mágicas inscrito en su propio aspecto, cuando no en su nombre, es propio de muchas culturas primitivas, y tiene una larga tradición en la cultura europea. La metafísica cristiana introdujo esta noción en la teología, afirmando que el Creador ha puesto en cada ser las señas de para qué sirve. Plinio el Viejo registra en su Historia Natural que en la medicina popular de su tiempo los órganos de los animales eran usados para tratar los males de los órganos humanos equivalentes. Por ejemplo el ojo derecho de la rana era considerado apropiado para tratar el ojo derecho humano, pero para tratar el ojo izquierdo se necesitaba el ojo izquierdo del animal. En la doctrina de las signaturas no hace falta equivalencia, homología o identidad de función, entre el órgano a tratar y el remedio, sino solo alguna señal visual indicativa. En su variante verbal, el signo no se encuentra sobre el objeto curativo, sino que es o está asociado a su nombre. Galeno decía que el cangrejo (καρκίνος, carcinos, en griego, y cancer en latín) estaba indicado para la cura del carcinoma o cáncer (καρκίνωμα, en griego y cancer en latín), atribuyendo el nombre del mal a su parecido con el animal. El mismo grado de identidad lo encontramos en la palabra latina uva, que indicaba por igual la fruta que el órgano situado en la garganta que ha quedado en el lenguaje anatómico en forma diminutiva, uvula (úvula). Para curar la irritación de la úvula, el médico tenía que manchar de púrpura una semilla de uva pasa, colocarla junto al órgano irritado, y recitar Uva uvam emendat (la uva arregla a la uva). También funcionaba como medida preventiva, porque si un romano encontraba una uva que estaba pasándose y, cogiéndola entre el pulgar y el anular de la mano izquierda, se la llevaba a la boca y la tragaba sin tocarla con los dientes, podía estar seguro de haberse librado de la irritación de úvula para todo el año.
3Ciencia_y_Tecnología
La terraformación[1]​ puede ser entendida de dos maneras: Como un término propio que describe procesos orientados a la intervención de un planeta, satélite natural u otro cuerpo celeste para recrear en este las condiciones óptimas para la vida terrestre, a saber, una atmósfera y temperatura adecuadas, y la presencia de agua líquida. Este es el uso original del término. Como un término científico informal, que agrupa a un conjunto de procedimientos hipotéticos propuestos por científicos de diversas disciplinas, para llevar a cabo el proceso descrito anteriormente en la vida real.[2]​
3Ciencia_y_Tecnología
Las computadoras biológicas pronosticarán enfermedades como el cáncer, serán una herramienta nueva en la rama de la medicina para la salud del ser humano. Apenas se encuentran en proceso de investigación por parte de investigadores israelíes del Instituto Científico Weizman, los mismos que han desarrollado el prototipo de una "computadora biológica" o molecular capaz de diagnosticar la existencia de células cancerígenas e indicar su tratamiento curativo.
3Ciencia_y_Tecnología
Las ciencias especiales son aquellas ciencias distintas de la física fundamental. Desde este punto de vista, la química, la biología y la neurociencia (de hecho, todas las ciencias, excepto la física fundamental) son ciencias especiales. El estatus de las ciencias especiales, y su relación con la física, está sin resolver en la filosofía de la ciencia. Jerry Fodor, por ejemplo, ha abogado por una fuerte autonomía, concluyendo que las ciencias especiales ni siquiera son, en principio, reducibles a la física.[1]​ Como tal, Fodor a menudo ha sido acreditado por haber ayudado a cambiar el rumbo contra el fisicalismo reduccionista.[2]​
3Ciencia_y_Tecnología
La Declaración de Cracovia por una iniciativa de la U.E. sobre eficiencia energética en la industria[1]​[2]​ fue emitida por los expertos reunidos en la 21ª Conferencia Internacional sobre eficiencia, costos, optimización, simulación e impacto ambiental de los sistemas de energía (ECOS '08) celebrada en Cracovia (Polonia) en junio de 2008.).[3]​
3Ciencia_y_Tecnología
Iván Illich (Viena, 4 de septiembre de 1926 - Bremen, 2 de diciembre de 2002) fue un pensador austríaco polifacético y polémico, clasificado como anarquista, autor de una serie de críticas a las instituciones clave del progreso en la cultura moderna. Criticó la educación escolar, la medicina profesional y de patente, así como el trabajo ajeno y no creador, y el consumo voraz de energía necesaria para el desarrollo económico como una negación de la equidad y la justicia social, entre otros muchos temas.[1]​ Su obra se inscribe dentro de las corrientes antiindustriales. Su esplendor surgió al conocerse sus primeras publicaciones en los años 70, para caer luego en un ciclo de reinterés y aparente olvido, pues su lectura está ligada al surgimiento de diversos movimientos sociales (ambientalistas, equidad, minorías).[cita requerida]
3Ciencia_y_Tecnología
El combustible nuclear de mezcla de óxidos (MOX), es un tipo de combustible utilizado en los reactores nucleares de fisión compuesto por una mezcla de óxido de uranio natural, uranio reprocesamiento nuclear o uranio empobrecido, y óxido de plutonio. La proporción de plutonio en este combustible varía de un 3% a un 10%. Este combustible se comporta de una forma similar a la del uranio de bajo enriquecimiento para el que se diseñaron la mayoría de los reactores nucleares de agua ligera (LWR). Uno de los atractivos del MOX es que puede utilizarse para eliminar parte del plutonio de grado militar, eliminando un problema de almacenamiento y contribuyendo a la no proliferación.
3Ciencia_y_Tecnología
El Informe Nora-Minc es un informe sobre la informatización de la sociedad, publicado en diciembre de 1977 por Simon Nora y Alain Minc. En este informe se inventó la palabra y el concepto de la telemática y la puesta en marcha de la red Minitel. La edición de este informe fue un éxito en Francia.[1]​
3Ciencia_y_Tecnología
La economía de hidrógeno es un modelo económico energético alternativo al uso de combustibles fósiles, en el cual la energía, para su uso básico en los medios de transporte, se almacena como hidrógeno (H2) o dihidrógeno. El hidrógeno se ha propuesto como sustituto de los combustibles fósiles como la gasolina y el diésel (gasóleo) utilizados actualmente en automóviles y como sistema de almacenamiento de energías renovables.[1]​
3Ciencia_y_Tecnología
El estado del arte es un anglicismo derivado de la expresión state of the art (literalmente estado del arte), utilizado para la investigación-acción. La expresión inglesa se puede traducir al español también como «puntero», «lo último» o «[lo más] avanzado»; por ejemplo, state of the art technology se traduce dentro del contexto cultural hispano, es decir, no literal, como «tecnología punta», «lo último en tecnología» o «tecnología de vanguardia». En el ámbito de la investigación científica, el SoA (por sus siglas en inglés) hace referencia al estado último de la materia en términos de I+D, refiriéndose incluso al límite de conocimiento humano público sobre la materia. Dentro del ambiente tecnológico industrial, se entiende como "estado del arte", "estado de la técnica" o "estado de la cuestión", todos aquellos desarrollos de última tecnología realizados a un producto, que han sido probados en la industria y han sido acogidos y aceptados por diferentes fabricantes. En inglés, la frase va unida con guiones cuando se utiliza como adjetivo: This machine is an example of state-of-the-art technology. En español no se cumple esta convención, aunque puede aplicarse de igual manera. En el campo de la propiedad industrial, en especial en el campo de las patentes, se suele denominar Estado de la Técnica o "prior art". Se define mediante todo aquello que ha sido publicado, ya sea en el país donde se busca la patente o en todo el mundo, antes de la fecha de solicitud de la patente.
3Ciencia_y_Tecnología
En lógica y filosofía, la distinción analítico-sintético es la distinción entre dos tipos de proposiciones: las proposiciones analíticas y las proposiciones sintéticas. En general, las proposiciones analíticas son aquellas cuyo valor de verdad puede ser determinado en virtud del significado de los términos involucrados, y las proposiciones sintéticas son aquellas que para determinar su valor de verdad, requieren algún tipo de contrastación empírica.[1]​ Por ejemplo, la proposición "ningún soltero es un hombre casado" es una proposición analítica, porque basta con entender lo que significa "soltero" y "casado" para convencerse de que es verdadera. Por otra parte, la proposición "algunos solteros son doctores" es una proposición sintética, dado que para determinar si es verdadera o falsa, habría que hacer una encuesta o algún tipo de investigación empírica. La distinción tiene una larga historia en la filosofía, y ha ido bajo distintos nombres. Por ejemplo, Gottfried Leibniz habló de verdades de razón y verdades de hecho, David Hume de relaciones de ideas y cuestiones de hecho, e Immanuel Kant de juicios analíticos y juicios sintéticos. Por otra parte, el grado en que estos términos refieren a lo mismo es un pensamiento sin certeza.
3Ciencia_y_Tecnología
Hecho científico, el concepto de hecho propio de la ciencia, no tiene una definición universalmente aceptada: Según el empirismo lógico (concepción heredada de la filosofía de la ciencia), es una observación verificable y objetiva, en la que los hechos se identifican con las observaciones.Según el realismo científico, es un acontecimiento que puede ser descrito de manera verificable y objetiva.[cita requerida]La diferencia entre estas dos posiciones filosóficas (más precisamente epistemológicas) es muy profunda, pues mientras que la primera supone que los humanos solo tenemos acceso a los fenómenos (fenomenismo), la segunda afirma que el acceso a la realidad, si bien indirecto (a través de modelos o teorías) y parcial (solo con algún grado de verdad), es posible. En otras palabras, para el fenomenismo solo hay datos científicos (aunque se les llame "hechos"), en tanto que para el realismo hay hechos (reales) que pueden ser descritos mejor o peor por los datos científicos.[1]​ Se suele contraponer hecho científico a teoría. Esta consiste en un explicación o interpretación de los hechos. La mencionada contraposición también tiene diferentes consecuencias según la epistemología subyacente: para el realista, contraponer hecho a teoría supone contraponer una cosa real (un objeto concreto) a una idea de la cosa (un objeto conceptual). Para el fenomenista, tal contraposición se presenta entre dos objetos conceptuales: el "hecho" (mejor mentado como "dato") y el modelo o teoría que sistematiza o explica ese dato. En Filosofía de la ciencia, se ha cuestionado (notablemente por Thomas Kuhn, pero también por otros) si los hechos científicos (o sea, datos) son siempre dependientes de la teoría en algún grado (ya que saber qué hechos medir y cómo medirlos requiere alguna presuposición sobre los hechos mismos). Esta es la tesis de la carga teórica de la observación. En el terreno de los estudios sociales de la ciencia, los hechos científicos se entienden generalmente como entidades que existen dentro de complejas estructuras sociales de confianza, acreditación, instituciones y prácticas individuales. Es decir, como construcciones conceptuales que no son "datos" (dadas).
3Ciencia_y_Tecnología
Hot-linking es un término que se usa en Internet, el cual indica que alguien está usando un enlace a una imagen que está archivada en otro sitio web, en lugar de guardar una copia de la imagen en el servidor del sitio web en el que se mostrará la imagen. Por ejemplo, en lugar de guardar una imagen .gif y cargarla en su propio sitio web, la persona usa un enlace de tipo absoluto directo hacia la imagen, semejante a http://sitioweb.com/imagen.gif, en lugar de un enlace de tipo relativo. Esto hace que la imagen siempre se cargue desde el servidor original, utilizando recursos innecesarios que no benefician al sitio principal.
3Ciencia_y_Tecnología
Jean-Marc Mandosio es un universitario francés especialista en literatura neolatina nacido en 1963. También ha publicado varios ensayos críticos sobre la sociedad moderna.
3Ciencia_y_Tecnología
El James Dyson Award es un premio para estudiantes o jóvenes interesados en la ingeniería de diseño, con el fin de ayudar a la sociedad o solucionar problemas. El concurso está abierto a estudiantes universitarios de las carreras de diseño de producto, ingeniería y diseño industriales.[1]​, o que se hayan graduado en los últimos cinco años. El concurso y el premio lo organiza la Fundación de James Dyson. Su misión es motivar a las próximas generaciones de ingenieros y diseñadores. Para participar en el concurso, el estudiante debe de haber estudiado en uno de los siguientes países: Australia, Austria, Bélgica, Canadá, China, Francia, Alemania, Irlanda, India, Italia, Japón, Corea, Malasia, Países Bajos, Nueva Zelanda, Rusia, Singapur, España, Suecia, Suiza, Taiwán, Reino Unido o Estados Unidos.[1]​ La elección de los ganadores se realiza a través de tres fases. En la primera de ellas se seleccionan tres proyectos nacionales de los que saldrá un ganador. En la segunda etapa, un grupo de ingenieros seleccionarán 20 proyectos entre todos los nacionales. Finalmente, James Dyson los revisa y selecciona cuatro finalistas: Un ganador internacional, dos finalistas y un ganador del Premio a la Sostenibilidad.
3Ciencia_y_Tecnología
El término sistema socio-técnico fue originalmente usado para designar la interacción obrero – máquina en ambientes de trabajo industrial. Actualmente se ha extendido su alcance para abarcar las complejas interacciones entre la tecnología y las personas, así como sus consecuencias psicológicas y culturales (observando siempre la razón con lo real y no pensado).
3Ciencia_y_Tecnología
Libelium es una empresa tecnológica española, fundada en Zaragoza en 2006. Diseña y fabrica hardware y un kit completo de desarrollo de software (SDK) para redes de sensores inalámbricos para que integradores de sistemas, ingeniería y consultorías puedan ofrecer soluciones confiables de internet de las cosas (IoT, Internet of Things), M2M y smart cities con un tiempo mínimo de comercialización.
3Ciencia_y_Tecnología
Ciencia: abriendo la caja negra[1]​ es la traducción al español de un libro de Steve Woolgar, editado por Anthropos Editorial del Hombre en 1991, como octavo volumen de la colección de monografías científicas “Tecnología, Ciencia, Naturaleza y Sociedad” dirigida por Manuel Medina, quien introduce un prólogo en la obra. El libro consta de 170 páginas con la siguiente estructura: Prólogo por Manuel Medina Capítulo 1: “¿Qué es la ciencia?” Capítulo 2: “La representación y los desastres metodológicos” Capítulo 3: “Abriendo la caja negra: lógica, razón y reglas” Capítulo 4: “Invirtiendo la naturaleza: descubrimiento y hechos” Capítulo 5: “Ciencia argumentativa: discurso y explicación” Capítulo 6: “Mantener viva la inversión: etnografía y reflexividad” Capítulo 7: “Ciencia y ciencia social: agentes y tecnología en la representación”
3Ciencia_y_Tecnología
El tecnofeminismo es un término acuñado por Judy Wajcman en su libro del mismo nombre,[1]​ y se refiere al punto donde se encuentra el feminismo con los avances tecnológicos, que en la actualidad es muy importante ya que el patriarcado y el machismo están involucrados tanto en avances científicos como tecnológicos, como por ejemplo en el desarrollo de vacunas, teléfonos celulares, computadoras u otros aparatos. El tecnofeminismo se centra en alzar la voz sobre que las mujeres también son científicas, también dan grandes avances en la tecnología, y a su vez en quitar esa imagen de que las mujeres sean cosificadas, la tecnología no es la clave, sino el establecimiento y el desarrollo para responder a los eventos sociales que ocurren, dado el nombre del tratado entre feminismo y constructivismo, definida como la mujer tecnológica, se crea la relación entre el hombre y la tecnología, con tecnologías como tanto la causa como el efecto de la sexualidad masculina:
3Ciencia_y_Tecnología
TÜV Rheinland (pronunciación alemana: [ˈtʏf ˈʁaɪnlant]) es un proveedor a escala mundial de servicios técnicos, de seguridad y certificación. Inicialmente llamada Dampfkessel-Überwachungs-Verein (Cuerpo de Inspectores de Calderas de Vapor),[2]​ TÜV Rheinland fue fundada en 1872 y tiene su oficina central en Colonia, Alemania. Renombrada en 1936 como grupo TÜV Rheinland (Organización de Inspecciones Técnicas), el grupo emplea a unas 19.320 personas en 520 sedes de 69 países y genera unos ingresos anuales de 1731 millones de euros[3]​ (el 51 % fuera de Alemania). El principio rector del grupo es lograr el desarrollo sostenido de la seguridad y la calidad con el fin de responder a los desafíos que surgen de la interacción entre el hombre, la tecnología y el medio ambiente (de ahí el logotipo con forma de triángulo).
3Ciencia_y_Tecnología
La filosofía de la naturaleza, a veces llamada filosofía natural o cosmología fue el estudio filosófico de la naturaleza y el universo físico que era dominante antes del desarrollo de la ciencia moderna. Se considera el precursor de lo que hoy conocemos como las ciencias naturales y física hasta mediados del siglo XIX. Problemas como los del determinismo o indeterminismo, causalidad, finalismo, orden y probabilidad, especificidad de la vida, etc., eran considerados argumentos propios de la filosofía de la naturaleza la cual debería ser independiente de la propiamente dichas las ciencias e investigaciones empíricas y teóricas. Similarmente se hablaba de "teología natural" o "racional" como la investigación filosófica referida a Dios basados en la razón y la experiencia ordinaria de la naturaleza.[1]​ La filosofía natural trató cuestiones que pocas ciencias naturales se han planteado, como la existencia de un mundo inmaterial. Por esta cuestión, la cosmología se interpenetra con la "psicología" como estudio del alma.[2]​ Desde el mundo antiguo, comenzando con Aristóteles, quien llamaba este estudio "física", la filosofía natural era el término común para la práctica de estudiar la naturaleza hasta el siglo XIX. Fue en el siglo XIX que el concepto de "ciencia" recibió su forma moderna con nuevos títulos emergentes como "biología" y "biólogo", "física" y "físico" entre otros campos y títulos técnicos; se fundaron instituciones y comunidades, y se produjeron aplicaciones e interacciones sin precedentes con otros aspectos de la sociedad y la cultura. Así, el conocido tratado de Isaac Newton, Philosophiæ naturalis principia mathematica (1687), cuyo título se traduce como "Principios matemáticos de la filosofía natural", refleja el uso actual de las palabras "filosofía natural", similar al "estudio sistemático de la naturaleza".
3Ciencia_y_Tecnología
Applus+ IDIADA es una empresa de ingeniería que brinda servicios de diseño, pruebas, ingeniería y homologación a la industria automotriz en todo el mundo. Con más de 25 años de historia, Applus+ IDIADA es una empresa multinacional con una fuerza laboral internacional de más de 2500 profesionales. La oficina principal, ubicada cerca de Barcelona, España, comprende un terreno de pruebas de 360 hectáreas y un complejo de instalaciones de prueba. La compañía es totalmente independiente de cualquier fabricante de vehículos y tiene una red internacional de subsidiarias y sucursales en 25 países, incluyendo China e India, para garantizar que sus clientes reciban servicios rápidos y personalizados.[3]​
3Ciencia_y_Tecnología
La ingeniería de elevación es la rama de la ingeniería que estudia, diseña y ejecuta las maniobras necesarias para la elevación y posicionamiento de cargas. Se suele reservar este término para cargas de especial dificultad en su posicionamiento, por su peso, dimensiones u otras circunstancias. Este término proviene del inglés lifting engineering, empleado habitualmente como sinónimo de Heavy lifting (izado pesado). Las maniobras especiales aparecen como complemento de las que se podría llamar maniobras estándar; es decir, el empleo de grúas de cualquier tipo, sin necesidad de desarrollar un estudio o procedimiento específico de maniobra. Es erróneo el concepto de que maniobra especial es toda aquella que no se hace con una grúa. En ocasiones se puede incluir en el concepto de maniobra especial a aquellas que requieren del empleo de grúas.
3Ciencia_y_Tecnología
La nomotética significa, etimológicamente, «proposición de la ley», y se usa en filosofía, antropología, sociología y psicología con diferentes significados.
3Ciencia_y_Tecnología
En mecánica de fluidos, el lastre (balasto) es un término que se aplica en función del principio de Arquímedes sobre un cuerpo que varía su densidad en función del centro de masa en un medio fluido.
3Ciencia_y_Tecnología
El determinismo biológico, en sociología, filosofía de la ciencia y biología, describe la creencia de que el comportamiento humano es controlado por los genes de un individuo. El determinismo biológico afirmaría que tanto las normas de conducta compartidas como las diferencias sociales y económicas que existen entre los grupos, básicamente diferencias de etnia, de clase y de sexo, derivan de ciertas diferencias heredadas innatas, y que en este sentido, la sociedad constituye un reflejo fiel de la biología. El determinismo biológico habría desempeñado un papel negativo en la explicación y creación de conceptos como la raza, el género y la sexualidad.[1]​ El determinismo biológico se plantea hoy en términos de determinismo genético, un conjunto de teorías que defienden la posibilidad de dar respuestas últimas al comportamiento de los seres vivos a partir de su estructura genética. Por lo tanto, la conducta, tanto de los animales como del ser humano, obedece a formas que han sido necesarias para la supervivencia de sus genes, y que se extienden a complejos sistemas sociales adaptados a su más favorable proceso evolutivo. El consenso científico es que actualmente no hay pruebas para el determinismo biológico estricto en las ciencias biológicas y psicológicas. Los rasgos físicos y comportamientos son fenotipos ya que son el resultado de interacciones complejas entre la biología y el medio ambiente.[2]​
3Ciencia_y_Tecnología
El término sombrero blanco en Internet se refiere a un hacker ético, o un experto de seguridad informática, quien se especializa en pruebas de penetración y en otras metodologías para detectar vulnerabilidades y mejorar la seguridad de los sistemas de comunicación e información de una organización.[1]​ También se refiere a hackers que no son agresivos o no realizan actividades ilícitas. Un hacker ético es un término inventado por IBM. Es utilizado para diferenciar a los piratas informáticos que actúan sin malicia de los que sí, los cuales son más conocidos como crackers o hackers de sombrero negro.[2]​ Los hackers de sombrero blanco también suelen trabajar en grupo conocidos como sneakers o fisgones, equipo rojo, o equipo tigre.[3]​[4]​
3Ciencia_y_Tecnología
Joint Electron Device Engineering Council (JEDEC) autodenominada como una “Solid State Technology Association”, es la rama de la “Alianza de Industrias Electrónicas” (Electronic Industries Alliance, EIA), que representa a las áreas de la industria electrónica en los Estados Unidos para la normalización de la ingeniería y desarrollo de tecnologías basadas en semiconductores. En 1960, crearon JEDEC como una iniciativa conjunta de la EIA y la National Electrical Manufacturers Association (NEMA), para cubrir la creciente necesidad de normalización de dispositivos basados en semiconductores discretos. En 1970 sus objetivos se extendieron al ámbito de los, entonces modernos, circuitos integrados. Está formada por aproximadamente 300 compañías asociadas, que comprenden fabricantes, distribuidores y usuarios de componentes basados en semiconductores.
3Ciencia_y_Tecnología
La biometría (del griego bios vida y metron medida) es la toma de medidas estandarizadas de los seres vivos o de procesos biológicos. Se llama también biometría al estudio para el reconocimiento inequívoco de personas basado en uno o más rasgos conductuales o físicos intrínsecos. En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, «verificar» su identidad. Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). Algunos rasgos biométricos, como la voz, comparten aspectos físicos y del comportamiento.
3Ciencia_y_Tecnología
Un científico (del latín scientificus,[1]​ y a su vez de scientia, 'conocimiento' y -fic, raíz apofónica de facis, 'hacer') es una persona que participa y realiza una actividad sistemática para generar[2]​ nuevos conocimientos en el campo de las ciencias (tanto naturales como sociales), es decir, que realiza investigación científica.[3]​[4]​[5]​ El término fue acuñado por el británico William Whewell en 1833.[6]​[7]​[8]​[9]​[10]​[11]​ En un sentido más restringido, un científico es una persona que utiliza el método científico.[12]​[13]​ Puede ser experta en una o más áreas de la ciencia.[14]​
3Ciencia_y_Tecnología
El metal de Field, o aleación de Field (nombrado así en honor a Simon Quellen Field), es una aleación fusible que se convierte en líquido a los 62 ºC. Se trata de una aleación eutéctica de bismuto, indio y estaño, con la siguiente composición en peso: 32.5% Bi, 51% In, 16.5% Sn. Al no contener plomo ni cadmio, es una alternativa no tóxica al metal de Wood. Se utiliza para modelado y prototipados sencillos.
3Ciencia_y_Tecnología
AFNOR (en francés, Association française de Normalisation; y en inglés, French Standardization Association)[1]​ es la organización nacional francesa para la estandarización y miembro de la Organización Internacional para la Estandarización.[2]​ El grupo AFNOR desarrolla sus actividades internacionales de normalización, provisión de información, certificación y ensayo a través de una red de filiales en toda Francia que son miembros de la asociación. Estas son: ACTIA (Association de coordination technique pour l'industrie agroalimentaire) ADEME (Agence de l'environnement et de la maîtrise de l'énergie) ADEPTA (Association pour le développement des échanges internationaux de produits et techniques agroalimentaires) COFRAC (Comité français d'accréditation) CSTB (Centre scientifique et technique du bâtiment) CTI (Centres techniques industriels) INERIS (Institut national de l'environnement industriel et des risques) LCIE (Laboratoire central des industries électriques) LNE (Laboratoire national de métrologie et d'essais) UTAC (Union technique de l'automobile, du motocycle et du cycle) UTE (Union technique de l'électricité)
3Ciencia_y_Tecnología
La quema de recursos renovables proporciona aproximadamente el 90 por ciento de la energía en Uganda,[1]​ aunque el gobierno está tratando de ser autosuficiente en energía.[2]​ Si bien gran parte del potencial hidroeléctrico del país está sin explotar, la decisión del gobierno de potenciar la producción petrolera nacional junto con el descubrimiento de grandes reservas de petróleo promete un cambio significativo en el estado de Uganda como país importador de energía.[3]​
3Ciencia_y_Tecnología
Un obturador fusible, también llamado tapón fusible, es un accesorio basado en aleaciones de baja temperatura de fusión que limita la temperatura máxima de funcionamiento de una caldera o un circuito a presión cuando la temperatura del sistema supera el valor de diseño.[1]​ Una disposición típica de un obturador fusible es la uno obturador roscado exteriormente y una sección de paso en forma cónica. El cuerpo del obturador es de aleaciones resistentes a la temperatura (bronce, latón, bronce de cañones), mientras que la parte central está constituida por una aleación de bajo punto de fusión.
3Ciencia_y_Tecnología
La Conferencia General de la Unescoen su Resolución 31C/20 decide proclamar el día 10 de noviembre Día Mundial de la Ciencia para la Paz y el Desarrollo en 2001.
3Ciencia_y_Tecnología
Una maqueta arquitectónica es una representación física a escala reducida de una edificación, proyecto urbano, o partes del mismo. La representación puede ser muy sencilla, de sólo volúmenes, hasta extremadamente detallada, similar a un diorama. El uso varía desde un modelo rápido, para referencia, exploración o análisis, hasta modelos muy acabados para la promoción o presentación de proyectos a clientes, o al público. Además de las maquetas arquitectónicas y urbanas, se elaboran también maquetas de territorios. Las maquetas arquitectónicas, como la mayoría de las representaciones de escala, se utilizan como una herramienta de comunicación.Una maqueta a escala, debería entregar un mensaje altamente eficaz.Los arquitectos hacen maquetas a escala durante el diseño para estudiar algún aspecto de la forma general o la relación entre edificios u otros aspectos.La maqueta a escala es un arte que requiere precisión y experiencia.
3Ciencia_y_Tecnología
La cienciometría es la ciencia que estudia la producción científica con el fin de medir y analizar la misma. Los principales temas de investigación incluyen la medición del impacto, los conjuntos de referencia de artículos para investigar el impacto de las revistas e institutos, la comprensión de citas científicas, el mapeo de campos científicos y la producción de indicadores para su uso en contextos políticos y de gestión.[1]​ En la práctica, existe una superposición significativa entre la cienciometría y otros campos científicos como la bibliometría, los sistemas de información, la ciencia de la información y la política científica. Otro ámbito en el que se aplica la cienciometría es el académico, donde se cuantifican desde el número de doctores titulados hasta la cantidad de computadoras y número de horas invertidas en el aula.[2]​
3Ciencia_y_Tecnología
Eyebeam Art + Technology Center (Eyebeam) es un centro de arte y tecnología sin fines de lucro en la ciudad de Nueva York. El propósito manifiesto es el promover el uso creativo de nuevas tecnologías al proveer un ambiente de colaboración para la investigación y experimentación en la intersección de arte, tecnología y cultura.[1]​ Eyebeam fue fundado por John S. Jonson Ill con sus co-fundadores David S Johnson y Roderic R. Richardon. Originalmente se concibió como un taller de efectos digitales y código y centro para la educación juvenil. Eyebeam se ha vuelto un centro de investigación, desarrollo y curaduría de nuevos medios obras de arte y open source technology. Eyebeam es el anfritrión de 20 artistas residentes y fellows de investigación, co-produce programas de educación juvenil y presenta exposiciones, performances, simposios, talleres, hackathons y otros eventos.[2]​ Los proyectos desarrollados por Eyebeam han recibido premios y reconocimientos, los cuales incluyen, entre otros, Webby Awards, Becas Guggenheim, y el Prix Ars Electronica.
3Ciencia_y_Tecnología
Un ciclo de sobreexpectación es una representación gráfica de la madurez, adopción y aplicación comercial de una tecnología específica. El término fue acuñado por Gartner, una casa de análisis/investigación, basada en los EE. UU., que proporciona opiniones, consejos y datos sobre la industria de las tecnologías de la información mundial. Un ejemplo de un ciclo de sobreexpectación se encuentra en la ley de Amara,[1]​ declarado por Roy Amara,[2]​ y la cual dice que: Nuestra tendencia es sobrestimar los efectos de una tecnología en el corto plazo y subestimar el efecto en el largo plazo.[3]​[4]​
3Ciencia_y_Tecnología
Karen Michelle Barad conocida como Karen Barad (29 de abril de 1956) es una teórica feminista de Estados Unidos. Es profesora de estudios feministas, filosofía e historia de la conciencia de la Universidad de la Universidad de California, Santa Cruz.[1]​ Ha desarrollado el concepto de realismo agencial.
3Ciencia_y_Tecnología
Geo-Wiki es una plataforma que oferta a los ciudadanos los medios para unirse en la monitorización ambiental de la Tierra, suministrando resultados o respuestas a la información espacial existente en imágenes de satélite o aportano datos enteramente nuevos. Los datos pueden ser insertados a través de la plataforma tradicional o dispositivos móviles, con campañas y juegos usados para incentivar la entrada de datos para su computación. Los datos resultantes están disponibles sin restricciones
3Ciencia_y_Tecnología
El Sistema de Evaluación de Aprendizaje (SEA) funciona en la ANEP (Administración Nacional de Educación Pública) de Uruguay. Coordina con la Inspección Técnica de Educación Primaria y Media para la creación de pruebas de evaluación que se aplican a nivel nacional, con el propósito de generar un referente común sobre los aprendizajes de los alumnos de tercer año de escuela a tercer año de liceo, a partir del cual promover entre los docentes la reflexión y el análisis acerca de los procesos de enseñanza y de aprendizaje de los aspectos considerados en las pruebas. Utiliza evaluaciones con actividades diseñadas por docentes, técnicos y especialistas en evaluación. Uruguay es el primer país latinoamericano que hace evaluaciones formativas en línea por computadora a escala masiva.[1]​ La modalidad de aplicación utiliza las computadoras y la conectividad proporcionada por el Plan Ceibal (versión local del programa estadounidense para países del Tercer Mundo One Laptop per Child), lo cual permite tener mayor cobertura, resultados al instante, y un gran ahorro en papel.[cita requerida] Lo más importante es el trabajo posterior a la prueba, promovido por SEA y gestionado por las autoridades de la educación, para reflexionar e intervenir sobre los aprendizajes de los estudiantes a escala nacional.[2]​
3Ciencia_y_Tecnología
Internet Society (ISOC) es una organización no gubernamental y sin ánimo de lucro,es la única organización dedicada exclusivamente al desarrollo mundial de Internet y con la tarea específica de concentrar sus esfuerzos y acciones en asuntos particulares sobre Internet. Fundada en 1992 por una gran parte de los "arquitectos" pioneros encargados de su diseño, ISOC tiene como objetivo principal ser un centro de cooperación y coordinación global para el desarrollo de protocolos y estándares compatibles.[1]​[2]​ Tanto las cuotas de sus socios como las contribuciones económicas de particulares, organizaciones y empresas son completamente deducibles de impuestos en Estados Unidos, según la norma del IRC 501c, así como en algunos otros países.[3]​[2]​
3Ciencia_y_Tecnología
ClassDojo es la plataforma de gestión del comportamiento de más rápido crecimiento en el mundo, utilizada por maestros, padres y estudiantes.[1]​[2]​[3]​[4]​ ClassDojo ayuda a los maestros a mejorar el comportamiento de sus alumnos en clase, permitiéndoles ofrecer a sus estudiantes retroalimentación en tiempo real a través de un dispositivo web o móvil.[1]​[2]​[3]​[4]​[5]​ ClassDojo genera de forma automática reportes e información sobre el comportamiento, que puede ser compartido con padres y estudiantes. Algunos comportamientos frecuentes que los maestros refuerzan con ClassDojo incluyen el trabajo denodado, la perseverancia, el trabajo en equipo, la creatividad y la curiosidad.[2]​ La compañía se ocupa de «la otra mitad» de la educación –la mitad que va más allá de enseñar contenidos académicos, construyendo los comportamientos y las fortalezas de carácter que los estudiantes necesitan para tener éxito a lo largo de su vida–.[1]​ Aun así, los métodos de ClassDojo no han pasado sin críticas. Entre ellas existen preocupaciones con la privacidad y el sistema de recompensas.[6]​ ClassDojo fue lanzado en agosto de 2011; desde agosto de 2012 la compañía ubicada en San Francisco, California,[5]​ cuenta con más de 3,5 millones de maestros y estudiantes utilizando ClassDojo en más de 60 países.[3]​ Inicialmente fundada por la incubadora de tecnología para la educación ubicada en Palo Alto ImagineK12, ClassDojo obtuvo su capital semilla de una serie de inversores incluyendo a Ron Conway, Mitch Kapor, Jeff Clavier, General Catalyst y Paul Graham.[7]​
3Ciencia_y_Tecnología