"Estamos un poco asustados", advierte el creador de ChatGPT
El CEO de la empresa OpenAI recalca que los reguladores como la sociedad deben involucrase mucho más con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad.
En una entrevista, Sam Altman, el CEO actual de OpenAI y creador de ChatGPT, enfatizó la importancia de que tanto los reguladores como la sociedad se involucren activamente con la tecnología para salvaguardarse contra posibles consecuencias negativas para la humanidad. Altman destacó la necesidad de ser cautelosos en este ámbito y mencionó que es importante que la gente reconozca y comprenda las implicaciones de esta tecnología. Además, expresó que no está mal que exista un cierto grado de temor, ya que esto impulsa a tomar las precauciones necesarias.
"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró a ABC News.
Recientemente, OpenAI presentó el GPT-4, la más reciente versión del modelo de lenguaje conocido como ChatGPT. Esta nueva versión ha demostrado una capacidad impresionante en diversas pruebas académicas. Por ejemplo, obtuvo una puntuación del 88% en los exámenes de ingreso a la facultad de derecho, un destacado 90% en el prestigioso examen del Bar, y logró resultados superiores al 85% en todos los exámenes de secundaria. Estos logros demuestran el gran avance en la capacidad de comprensión y generación de lenguaje natural del modelo.
A pesar de todo, Altman expresó su reflexión de que "esta herramienta está en gran medida bajo el control humano". En otras palabras, destacó que el GPT-4 depende de que alguien le proporcione una entrada para funcionar. Sin embargo, lo verdaderamente preocupante es quién tiene el control sobre esas entradas.
El CEO de OpenAI hizo alusión de manera indirecta a las empresas que adoptan un enfoque más permisivo en el desarrollo de la inteligencia artificial. Un ejemplo reciente de esto es la decisión de Microsoft de eliminar su departamento de ética relacionado con la IA, a pesar de las solicitudes de regulación.